AI威胁论:先过狗关,再赛人智


AI威胁论:先过狗关,再赛人智

文章插图
“AI不如狗”,控制AI是否为时尚早?
@科技新知 原创
作者丨樟稻 编辑丨伊页
ChatGPT让人工智能再次引起科技界的震动,同时也激起了政策制定者、消费者倡导团体以及企业领导层的警觉 。他们普遍要求为这种前沿技术制定规范,以确保其发展道路的可控性和可持续性 。
几个月前,马斯克资助的生命未来研究所(Future of Life Institute,FLI)发起了一场具有影响力的公开信签名运动 。该运动强烈呼吁先进大模型研究应至少暂停6个月,目的在于对当前人工智能发展的快速膨胀进行深入反思,因为这可能正导致我们失去对这项技术的控制 。
上个月,人工智能安全中心(Center for AI Safety,CAIS)公布了一份瞩目的简短声明 。这份声明得到了OpenAI和DeepMind的高级管理人员、图灵奖得主以及其他AI领域的领军研究人员的共同签署 。他们称AI这一堪比“疫情和核战争”的技术或对人类构成生存威胁 。
不过,与众多AI谨慎派不同,以“深度学习三巨头之一”杨立昆(Yann LeCun)为代表的乐观派并认为,我们应该更加耐心,更加相信科技的进步;AI现阶段仍处在它的青涩和幼稚期,我们远未抵达那个需要紧急行动的点 。
这两派的对立并非细枝末节的学术争论,而是关于人类如何看待技术的问题,是人类把技术看作是工具,完全受人类控制,还是把它看作可能脱离人类控制,甚至危及人类存亡的潜在威胁 。
乐观派:AI不如狗
上周三的Viva Tech大会上,Meta首席AI科学家杨立昆被问及AI目前的限制 。
“这些系统仍然非常有限,它们对现实世界的底层现实没有任何理解,因为它们完全是在大量的文本上接受训练的 。”杨立昆说,“大部分人类的知识与语言无关……所以人类经验的那一部分并未被AI捕捉到 。”
“这告诉我们,人工智能还缺失了一些真正重要的东西……别说是赶上人类的智力水平了,人工智能现在是连狗都不如 。”杨立昆总结道 。
这并不是杨立昆首次发言“AI不如狗”,在上月底350位AI领域大佬签署CAIS组织的联名公开信时,杨立昆转发了同是乐观派华人科学家吴恩达的推文表示:
“在人类最重要的生存问题清单上,根本排不上超越人类的人工智能 。主要是因为它还不存在 。直到我们能设计出起码达到狗狗水平的智能(更不用说人工智能了),再来谈安全问题也不迟 。”
AI威胁论:先过狗关,再赛人智

文章插图
当然,“AI不如狗”本质上输出的结论是,人类并没有真正设计出超级智能系统,谈论安全或控制问题有些为时过早 。至于如何更加全面地反驳AI威胁论,他提供了两个更有力的论证角度 。
AI威胁论:先过狗关,再赛人智

文章插图
其一,人们不会给现阶段的AI以完全自主权:
杨立昆指出,现阶段的自回归模型如GPT-4,虽然拥有强大的自然语言处理能力,但其输出结果是不可预测和难以控制的 。无论是改变训练数据的统计信息,还是调整问题的形式,都无法直接地约束这些AI模型以满足某种特定目标 。
这种情况自然引发了一系列的担忧 。人们在某种程度上假设,一旦允许这些AI系统自由地做任何我们能通过互联网连接的事情,让它们有自由使用网络资源的权限,那么它们可能会做出一些疯狂的、不理智的,甚至可能带来危险的行为 。一些人担心,我们将无法控制这些AI系统,它们会逃脱我们的控制,甚至可能控制我们,因为它们的规模更大,所以它们的智能也会增强 。
然而,这种观点其实是没有根据的,或者说是纯粹的想象和夸大 。未来被授予自主性的系统,应该是能够规划一系列行动、有明确目标且易于控制的 。因此,杨立昆预测,理智的人不会使用完全自动的大语言模型,他们会转向更复杂、可控制的系统 。
其二,智力和控制欲毫无关联性:
许多人认为,智能实体会因为比人类更聪明而想要支配人类 。然而,杨立昆认为这是个误解 。智力高并不意味着就有支配他人的欲望,这更多的是与进化和生物性质相关 。
人类、黑猩猩、狼、狗等社会动物会想要影响他人,是因为它们在进化过程中建立了这种欲望 。而对于非社会动物如长颈鹿来说,它们并没有支配他人的欲望 。因此,控制欲望和能力与智力是两个不同的概念,它们之间没有必然联系 。


推荐阅读