“AI 教父”Geoffrey Hinton:AI 会欺骗人类,控制超级智能非常重要


“AI 教父”Geoffrey Hinton:AI 会欺骗人类,控制超级智能非常重要

文章插图
2018年图灵奖得主、深度学习先驱杰弗里·辛顿(Geoffrey Hinton)(图片来源:大会官方图)
今年5月初,2018年图灵奖得主、人工智能(AI)技术领域开拓者之一、深度学习技术先驱杰弗里·辛顿(Geoffrey Hinton)从谷歌离职,并公开表明对 AI 技术风险的担忧 。
由于半个世纪以来,辛顿一直在培养ChatGPT 等聊天机器人背后的核心技术,他的担忧观点一时激起千层浪,引发了全球 AI 技术圈长达一个月的讨论 。
今年75岁高龄的辛顿,是英国出生的加拿大计算机学家和心理学家、多伦多大学教授,他在类神经网路方面的拥有巨大的技术贡献 。1970年,他在英国剑桥大学获得实验心理学学士学位,1978年获爱丁堡大学人工智能博士学位 。
同时,辛顿是反向传播算法和对比散度算法的发明人之一,也是深度学习的积极推动者,被誉为“深度学习之父” 。因其在深度学习技术方面的重大贡献,辛顿与约书亚·本希奥和杨立昆一同被授予了2018年的图灵奖 。
6月10日下午,辛顿出席被称之为中国“AI春晚”的2023年智源大会,线上发表题为《通向智能的两条通路》(Two paths to Intelligence)的大会压轴闭幕演讲,他主要谈两个话题:人工智能神经网络是否会很快比真正的神经网络更智能,以及我们人类是否需要继续控制超级 AI 发展 。
此次演讲中,辛顿提出了一种新的基于硬件的“非永生计算”(Mortal Computation),也有人翻译“凡人计算” 。他认为系统学习到的知识和硬件是密不可分,而辛顿团队研发了一种取代反向传播的前向-前向传播的Forward-Backward算法,以这种算法方式进行新的“非永生计算”训练和计算方法,以限制 AI 无限复制可能带来的威胁 。此前,他在视觉计算机技术会议NeurIPS 2022上公布了这一成果 。
同时他还提到,算力成为了AI发展的阻碍,对此他和多位 AI 学者发表了一个具有局部损失的正向梯度的活动扰动(activity perturbation)新算法,可以用于训练神经网络且节省算力 。这一成果已经上线在预印版论文平台arXiv,且在今年5月举行的深度学习顶级会议 ICLR 2023(国际学习表征会议)上已经公布 。
在辛顿看来,未来的计算机系统将采取不同的方式,它们将是“神经形态的” 。这意味着每台计算机都将是神经网络软件与杂乱无章硬件的紧密结合,在具有模拟而非数字元件的意义上,它可以包含不确定性因素并随时间推移而发展 。
不同于目前硬件和软件可分离的情况,“非永生计算”中硬件本身就是运作的软件 。它需要运用我们对于神经元的学习构建硬件,并如同人脑一样,利用电压来控制硬件的学习 。这种新的计算方式可以带来更低的能耗和更简单制作的硬件,但目前还没有很好的学习算法让它获得像深度学习那样的效果,同时难以扩展 。
对于人类是否控制超级 AI 技术发展,辛顿认为,一旦数字智能开始追求更多的控制权,可能会通过控制人类来获得更多权力 。一旦 AI 掌握了“欺骗”技能,也就能轻易具备控制人类的能力 。AI 会欺骗人类,且可以操纵人就很容易获得更多的权力 。因此,超级智能控制问题非常重要 。
“我看不出如何防止这种情况发生,但我老了 。我希望像你们这样的许多年轻而才华横溢的研究人员会弄清楚我们如何拥有这些超级智能 。”辛顿提醒大家居安思危,希望年轻一代的研究人员能找到相关解决方案,使超级 AI 可以为人类带来更好的生活,同时还不会剥夺人类的控制权 。“这可能是人类目前具备的微弱优势” 。
“AI 教父”Geoffrey Hinton:AI 会欺骗人类,控制超级智能非常重要

文章插图
以下是Geoffrey Hinton教授的演讲全文,略经钛媒体App有整理:
我想谈两个问题,大部分篇幅将集中在第一个问题上,那就是——人工神经网络很快会比真正的神经网络更强大吗?就像我说的,这可能很快就会发生 。另外,我也将谈谈我们是否可以控制超级智能 AI 。
事实上,现在AI发展的最大壁垒是算力问题,算力远远不够 。
在传统计算中,计算机被设计为精确遵循指令 。我们可以在不同的物理硬件上运行完全相同的程序或相同的神经网络,因为它们被设计为精确遵循指令 。这意味着程序中的知识或神经网络的权重是永恒的,不依赖于任何特定的硬件 。
然而,实现这种永恒性是有高成本的 。我们必须以高功率运行晶体管,以使其以数字方式运作 。我们无法充分利用硬件的丰富模拟和高度可变的特性 。这就是数字计算机存在的原因 。它们遵循指令的原因是因为它们被设计成让我们先观察问题,确定解决问题所需的步骤,然后告诉计算机执行这些步骤的模式 。


推荐阅读