Yann LeCun:不在乎社会规范,ChatGPT离真正的人还差得远

2022年底OpenAI推出ChatGPT,其爆火程度一直持续到今天,这个模型简直就是行走的流量,所到之处必将引起一番讨论狂潮 。
各大科技公司、机构、甚至是个人,纷纷加紧研发类ChatGPT产品 。与此同时,微软将ChatGPT接入必应,几乎前后脚,谷歌发布Bard为搜索引擎提供动力 。英伟达 CEO 黄仁勋对ChatGPT给与了一个很高的评价,他表示,ChatGPT 是人工智能领域的 iphone 时刻,也是计算领域有史以来最伟大的技术之一 。
很多人对对话式AI已经到来深信不疑,但这类模型真的完美无缺吗?不见得,在它们身上总会出现一些荒诞的时刻(uncanny moments),例如随意发表不受约束的言论,或者喋喋不休地说出接管世界的计划等 。
为了理解对话式AI这些荒诞时刻,由深度学习三巨头之一的Yann LeCun以及纽约大学计算机科学系博士后Jacob Browning等人联合撰写了一篇文章《AI Chatbots Don’t Care About Your Social Norms》,文中讨论了对话式AI的三个方面:聊天机器人、社会规范和人类期望 。

Yann LeCun:不在乎社会规范,ChatGPT离真正的人还差得远

文章插图
文中谈到,人类非常善于避免口误,不让自己做出失误和失礼的言行 。相比之下,聊天机器人却经常犯错 。因此理解为什么人类擅长避免出错,可以更好的帮助我们理解目前聊天机器人为何不能被信任 。
聊天机器人加入人类反馈,不让模型说错话对于GPT-3来说,犯错的方式包括模型统计不准确 。GPT-3比较依赖用户提示,它对语境、情境等的理解只关注从用户的提示中可以得到什么 。ChatGPT也是如此,不过后者以一种新颖而有趣的方式稍作修改 。除了统计学外,模型的反应也被人类评估员强化了 。对于系统的输出,人类评估员会进行强化,使其输出好的反应 。最终结果是,这个系统不仅会说一些貌似合理的东西,而且(理想情况下)还会说一些人类会判断为合适的东西——即便是模型说错了话,至少不会冒犯别人 。
但这种方法给人的感觉太机械性 。在人类对话中,有无数种方法可以说错话:我们可以说一些不恰当的、不诚实的、令人困惑的或者只是愚蠢的事情 。我们甚至在说正确的事情时,由于说的语气或语调不对而受到指责 。我们在与他人打交道的过程中,会穿越无数的「对话雷区」 。控制自己不说错话不仅仅是对话的一个重要部分,它往往比对话本身更重要 。有时,闭上嘴巴可能是唯一正确的行动方案 。
这就引出两个问题:我们该如何驾驭模型这种不说错话的危险局面?以及为什么聊天机器人不能有效地控制自己不说错话?
对话该如何进行?人类对话可以涉及任意话题,就像脚本化了一样:餐馆点餐,闲聊,为迟到道歉等等 。不过这些不是文字脚本,中间充满了即兴创作,所以人类的这种对话模型才是更一般的模式,规则没有那么严格 。
人类这种脚本化的言行不受文字制约 。即使你不懂语言,同样的脚本也能发挥作用,比如打一个手势就知道对方想要什么 。社会规范支配着这些脚本,帮助我们驾驭生活 。这些规范规定了每个人在某些情况下的行为方式,为每个人分配了角色,并对如何行动给予了广泛的指导 。遵循规范是有用的:它通过标准化和流程化来简化我们的交互,使彼此能更容易预测对方意图 。
人类已经制定了惯例和规范来管理我们社会生活的每个方面,从使用什么叉子到在按喇叭之前应该等待多长时间 。这对于在数十亿人的世界中生存至关重要,在这个世界上,我们遇到的大多数人都是完全陌生的人,他们的信仰可能与我们不一致 。将这些共同的规范落实到位不仅可以使对话成为可能,而且会富有成果,列出我们应该谈论的内容——以及我们不应该谈论的所有事情 。
规范的另一面人类倾向于制裁那些违反规范的人,有时会公开,有时会秘密进行 。社会规范使得评估一个陌生人变得非常简单,例如,在第一次约会时,通过对话以及提问等方式,双方会评估对方的行为,如果对方违反了其中一条规范——例如,如果他们表现得粗鲁或不恰当——我们通常会评判他们并拒绝第二次约会 。
对人类来说,这些评判不仅是基于冷静的分析,更进一步的是基于我们对世界的情感反应 。我们小时候接受的部分教育是情绪训练,以确保我们在对话中在正确的时间给出正确的情绪:当有人违反礼仪规范时感到愤怒,当有人说出冒犯性的话时感到厌恶,当我们说谎时感到羞耻 。我们的道德良知使我们能够在对话中对任何不恰当的事情做出快速反应,并预测其他人将如何对我们的言论做出反应 。


推荐阅读