“AI 教父”Geoffrey Hinton:AI 会欺骗人类,控制超级智能非常重要( 五 )


但是模型的每个副本,每个代理都以一种非常低效的方式从文档中获取知识 。实际上,这是一种非常低效的蒸馏形式 。它接收文档,试图预测下一个单词 。
它没有展示给它教师的概率分布,只是展示给它一个随机的选择,也就是文档作者选择的下一个单词 。因此它的带宽非常低 。这就是这些大型语言模型从人们那里学习的方式 。
每个副本通过蒸馏以非常低效的方式学习,但是你有成千上万个副本 。这就是为什么它们可以比我们学习更多的原因 。我相信这些大型语言模型比任何个体知道的东西多上千倍 。
现在的问题是,如果这些数字智能体不再通过缓慢的蒸馏过程从我们这里学习,而是直接从现实世界中学习,将会发生什么?我必须说,尽管蒸馏的过程很慢,但当它们从我们这里学习时,它们正在学习非常抽象的东西 。
在过去几千年里,人类对世界的认识有了很多进展 。
现在,这些数字智能体正在利用的是我们能够用语言表达出来的我们对世界所了解的一切 。因此,它们可以捕捉到人类在过去几千年中通过文件记录的所有知识 。但每个数字智能体的带宽仍然相当“非永生计算”,因为它们是通过学习文档来获取知识的 。

“AI 教父”Geoffrey Hinton:AI 会欺骗人类,控制超级智能非常重要

文章插图
如果它们能够通过建模视频等无监督的方式进行学习,那将是非常高效的 。一旦我们找到了一种有效的方法来训练这些模型以建模视频,它们将能够从整个YouTube学习,那是大量的数据 。如果它们能够操作物理世界,例如拥有机器手臂等,那也会有所帮助 。
但我相信,一旦这些数字智能体开始这样做,它们将能够比人类学习更多,并且学习速度相当快 。
这就涉及到我在开头提到的另一个问题,即如果这些智能体变得比我们更聪明会发生什么 。
很显然,这个会议主要讨论的就是这个问题 。但我的主要观点是,我认为这些超级智能可能会比我过去所认为的发生得更快 。如果你想创造一个超级智能体,不良分子将会利用它们进行操纵、选举等活动 。在美国和其他许多地方,他们已经在利用它们进行这些活动 。而且还会用于赢得战争 。
要使数字智能更高效,我们需要允许其制定一些目标 。然而,这里存在一个明显的问题 。存在一个非常明显的子目标,对于几乎任何你想要实现的事情都非常有帮助,那就是获取更多权力、更多控制 。拥有更多控制权使得实现目标变得更容易 。我发现很难想象我们如何阻止数字智能为了实现其它目标而努力获取更多控制权 。
一旦数字智能开始追求更多控制权,我们可能会面临更多的问题 。比如,在使用物理气隙隔绝的情况下,超级智能物种仍然可以轻易通过控制人类来获得更多的权限 。
作为对比,人类很少去思考比自身更智能的物种,以及如何和这些物种交互的方式 。在我的观察中,这类人工智能已经熟练的掌握了欺骗人类的动作,因为它可以通过阅读小说,来学习欺骗他人的方式,而一旦人工智能具备了“欺骗”这个能力,也就具备前面提及的——轻易控制人类的能力 。
所谓控制,举个例子,如果你想入侵华盛顿的一座建筑物,不需要亲自去那里,只需要欺骗人们,让他们自认为通过入侵该建筑物,就能实现拯救民主,最终实现你的目的(暗讽特朗普),这种操作令人感到害怕,因为我也不知道如何来阻止这样的行为发生,所以我希望年轻一代的研究人员,可以找出一些更智能的办法,来阻止这种通过欺骗实现控制的行为 。
尽管人类在这个问题上目前还没有什么好的解决方案,但好在这些智能物种都是人打造的,而非通过进化迭代而来,这可能是人类目前具备的微弱优势,恰恰是因为没有进化能力,它们才不具备人类的竞争、攻击性的特点 。
我们可以做一些赋能,甚至是赋予人工智能一些伦理原则,只不过现在我仍然会感到紧张,因为到目前为止,我还想象不到更智能的事物,被一些反倒没那么智能的事物所控制的例子 。我打个比方,假设青蛙创造了人类,那么你认为现在谁会占据主动权,是人,还是青蛙?
(本文首发钛媒体App,作者|林志佳)




推荐阅读