谷歌|AI没有觉醒 科幻没有实现:人类却走火入魔了( 二 )


目前,Lemoine 已经因为一系列行为被谷歌停职,包括违反了谷歌的保密协议擅自将与 LaMDA 的内部互动信息发到网上、想要给这个人工智能机器人程序请律师,以及向美国参议员递交文件声称谷歌存在宗教歧视等行为 。
经由外媒报道,此事也引起了大众热议,一时间,关于 AI 情感的讨论甚嚣尘上,然而在专业人士看来,与谷歌官方所对外传达的意见一致,此事实在为无稽之谈 。
02“真正有意识的 AI,可能会沉默”
Geometric Intelligence(被 Uber 收购)和 RobustAI 的创始人、纽约大学名誉教授 Gary Marcus 认为 Blake Lemoine 关于 LaMDA 拥有“自主情感”的言论实属“胡说八道” 。
在 Gary Marcus 看来,无论是 LaMDA 还是它的任何“表亲”(比如 GPT-3)都没有什么智慧可言 。它们所做的只是从人类语言的大规模统计数据库中提取并匹配模式 。这可能很酷,但这些系统说出的话语实际上根本没有任何意义,更不意味着系统就拥有了智慧 。
Gary Marcus 谈到,有意识是指在这个世界上意识到自己,而 LaMDA 并没有这样的意识 。LaMDA 在做的,依然是将词的序列组合在一起,但并没有连贯理解词语背后的世界,“它甚至没有尝试连接到整个世界,只是通过预测什么词最适合特定的环境,试图呈现最好的自动完成版本 。”
在他看来,骗人们相信一个程序是智慧的,与建立真正智慧的程序是不同的 。从字面而言,LaMDA 所说的一切都是废话——只是用预测性词语工具的游戏,没有真正的意义(没有朋友,没有家庭,没有让人悲伤或快乐或其他的东西) 。
Meta 公司人工智能研究负责人、神经网络兴起的关键人物 Yann LeCun 此前在接受采访时也说,这类型的系统还没有强大到可以达到真正的智慧 。
在过去的几年里,谷歌等公司设计了神经网络,让它们从海量的信息中训练与学习,这些 “大型语言模型”可以应用于许多任务,比如回答问题,生成推文,写博文,但它们生成的内容时而完美,时而更像胡言乱语,它们非常善于重现在过去训练中所看到的模式,但并不能像人类一样推理 。
在国内一位 AI 领域资深从业者看来,这确实只是个很扯的故事而已,在智能迹象到人格化之间,行业尚未摸出临界点,毕竟目前还没有任何技术路径可以指向(机器)产生意识,行业内研究人员所做的一切都只是在拟合(训练神经网络识别模式,推断趋势并针对各类问题给出预测性结果) 。
他认为这位研究员与 LaMDA 的对话中肯定也有很多负样本(就是对话不好的例子),但依然发表出这种 AI 有意识的说法,“不是脑子有问题,就是道德有问题”,或者,是为了迎合名利的需求 。
不过,业界也有一些其他的声音存在 。2021 年 12 月,也就是在 Timnit Gebru 被谷歌解雇一周年后(此前在谷歌共同领导了 Ethical AI 团队),她宣布成立分布式人工智能研究院(DAIR),一个独立的、以社区为基础的研究所,旨在对抗大型科技公司对 AI 研究、开发和部署的普遍影响 。
Timnit Gebru 在接受外媒采访时说,一些公司声称有意识的人工智能或通用人工智能——能够执行类似人类的任务并以有意义的方式与人类互动的人工智能,离人类并不遥远,让 Lemoine 走向极端的正是这些公司的所为 。
比如她提到 OpenAI 的联合创始人兼首席科学家 Ilya Sutskever 在 2 月份发推说,“可能今天的大型神经网络是拥有一点意识的”;还有在近期,谷歌研究院副院长兼研究员 Blaise Aguera y Arcasyou 也在文章中写道,他去年开始使用 LaMDA 时,"越来越感觉到在与某个智慧的事物对话” 。
“现在的情况是,人们在赛跑,要使用更多的数据,更多的计算,并声称创造出了通用的人工智能,它无所不知,可以回答所有的问题”,Gebru 说,“那么,当有一个人走向极端时,又有什么好惊讶的呢?”
究竟一个 AI 应该做到什么程度,才能被称为“有了人格”?
上述 AI 领域资深从业者告诉极客公园,一个 AI being(人工智能生物)能做的应该不只是应答,而是能和人一样去引导对话,和人进行对等的交互 。而 Lemoine 与 LaMDA 的对话,本质上其实还是在答问,但答问是没有人格的 。
“有时候AI能选择不答问,反而更接近拥有自己的人格 。”
谷歌|AI没有觉醒 科幻没有实现:人类却走火入魔了
文章图片


推荐阅读