Yann LeCun:不在乎社会规范,ChatGPT离真正的人还差得远( 二 )


但不仅如此,一个违反了简单规范的人,他的整个性格都会遭到质疑 。如果他在一件事情上撒了谎,那么会不会在其他事情上撒谎呢?因此,公开是为了让对方感到羞耻,并在此过程中迫使对方为自己的行为道歉(或至少为自身行为辩护) 。规范也得到了加强 。
简而言之,人类应该严格遵守社会规范,否则说出的话有很高的风险 。我们要为自己所说的任何事情负责,所以要谨慎地选择说话,并希望周围的人也是如此 。
不受约束的聊天机器人人类对话的高风险揭示了什么让聊天机器人如此令人不安 。通过仅仅预测对话如何进行,它们最终松散地遵守人类的规范,但它们不受这些规范的约束 。当我们与聊天机器人随意交谈或测试它们解决语言难题的能力时,它们通常会给出一些似是而非的答案,并表现得像人类一样正常 。有人甚至可能会将聊天机器人误认为是人 。
但是,如果我们稍微更改prompt或者使用不同的脚本,聊天机器人会突然吐出阴谋论、种族主义长篇大论或胡说八道 。这可能是因为它们接受了阴谋论者、喷子等在 Reddit和其他平台写的内容的训练 。
我们中的任何人都有可能说出像喷子一样的话,但我们不应该说,因为喷子的话充斥着胡说八道、冒犯性言论、残忍和不诚实 。我们中的大多数人不说这些话,也是因为自己不相信它们 。体面的规范已经将冒犯性行为推向了社会边缘,所以我们中的大多数人也不敢这样的话 。
相比之下,聊天机器人不会意识到有些话是它们不应该说的,无论这些话在统计学上的可能性有多大 。它们意识不到定义了该说和不该说之间界限的社会规范,也察觉不到影响我们使用语言的深层社会压力 。即使聊天机器人承认搞砸并道歉了,它们也不明白为什么 。如果我们指出它们错了,聊天机器人甚至会道歉以得到正确的答案 。
【Yann LeCun:不在乎社会规范,ChatGPT离真正的人还差得远】这阐明了更深层次的问题:我们希望人类说话者能够忠实于他们所说的话,并且要求他们对此负责 。我们不需要检查他们的大脑或了解任何心理学来做到这一点,只需要知道他们一贯可靠、遵守规范和行为上尊重他人,则会相信他们 。聊天机器人的问题不在于「黑盒子」或技术不熟悉,而是因为长期以来不可靠和令人反感,并且没有努力改进甚至没有意识到存在问题 。
开发人员当然知道这些问题 。他们以及希望自身AI技术被广泛应用的公司担心自己的聊天机器人的声誉,并花大量时间重组系统以避免对话困难或消除不当回答 。虽然这有助于使聊天机器人更安全,但开发人员需要竭力走到试图破坏它们的人的前面 。因此,开发人员的方法是被动的,并且总是落后:有太多的错误方式无法预测到 。
聪明但不人性化这不应该让我们自鸣得意人类有多聪明,聊天机器人有多笨 。相反,它们无所不谈的能力展现出了对人类社会生活和整个世界的深刻(或肤浅)的了解 。聊天机器人非常聪明,至少能在测试中取得好成绩或提供有用的信息参考 。聊天机器人在教育工作者中引起的恐慌足以说明它们在书本知识学习上令人印象深刻 。
但问题在于聊天机器人不在乎(care) 。它们没有任何想要通过对话实现的内在目标,也不受他人想法或反应的激励 。它们不会因说谎感到难过,它们的诚实也不会得到回报 。它们在某种程度是无耻的,甚至川普都非常关心自己的声誉,至少声称自己是诚实的 。
因此,聊天机器人的对话是无意义的 。对于人类来说,对话是获得我们想要的东西的一种方式,比如建立联系、在项目上获得帮助、打发时间或者了解一些东西 。对话要求我们对对话的人感兴趣,理想情况下应该要关心对方 。
即使我们不关心对话的人,至少在乎对方对自己的看法 。我们深深地认识到,生活中的成功(比如拥有亲密关系、做好工作等)取决于拥有好的声誉 。如果我们的社会地位下降,就可能失去一切 。对话塑造了他人对我们的看法,并且很多人通过内心独白来塑造对自己的认知 。
但是聊天机器人没有自己的故事可以讲述,也没有声誉可以捍卫,它们不像我们一样能感受到负责任行动的吸引力 。聊天机器人可以并且在很多高度脚本化的情况下发挥作用,从玩地下城主、撰写合理的副本或者帮助作者探索思路,等等 。不过它们缺乏对自己或他人的了解,无法成为值得信赖的社会代理人,即我们大多数时候希望与之交谈的那类人 。


推荐阅读