人工智能的“胡言乱语”,有没有解法?

文 | 陈根
AI大模型的成功带来了前所未有的“智能涌现” , 人们对即将到来的AI时代充满期待 。
【人工智能的“胡言乱语”,有没有解法?】然而 , 在科技巨头们涌向AI赛道、人们乐此不疲地实验和讨论AI的强大功能 , 并由此感叹其是否可能取代人类劳动时 , AI幻觉问题也越来越不容忽视 , 成为AI进一步发展的阻碍 。Yann LeCun——世界深度学习三巨头之一 , “卷积神经网之络父”——在此前的一次演讲中 , 甚至断言“GPT模型活不过5年” 。
随着AI幻觉争议四起 , 大模型到底能够在行业中发挥多大作用 , 是否会产生副作用 , 也成为一个焦点问题 。AI幻觉究竟是什么?是否真的无解?
AI大模型的“胡言乱语”
人类会胡言乱语 , 人工智能也会 。一言以蔽之 , 人工智能的胡言乱语 , 就是所谓的“机器幻觉” 。
具体来看 , AI幻觉就是大模型生成的内容在表面上看起来是合理的、有逻辑的 , 甚至可能与真实信息交织在一起 , 但实际上却存在错误的内容、引用来源或陈述 。这些错误的内容以一种有说服力和可信度的方式被呈现出来 , 使人们在没有仔细核查和事实验证的情况下很难分辨出其中的虚假信息 。
AI幻觉可以分为两类:内在幻觉(Intrinsic Hallucination)和外在幻觉(Extrinsic Hallucination) 。
所谓内在幻觉 , 就是指AI大模型生成的内容与其输入内容之间存在矛盾 , 即生成的回答与提供的信息不一致 。这种错误往往可以通过核对输入内容和生成内容来相对容易地发现和纠正 。
举个例子 , 我们询问AI大模型“人类在哪年登上月球”?(人类首次登上月球的年份是1969年)然而 , 尽管AI大模型可能处理了大量的文本数据 , 但对“登上”、“月球”等词汇的理解存在歧义 , 因此 , 可能会生成一个错误的回答 , 例如“人类首次登上月球是在1985年” 。
相较于内在幻觉 , 外在幻觉则更为复杂 , 它指的是生成内容的错误性无法从输入内容中直接验证 。这种错误通常涉及模型调用了输入内容之外的数据、文本或信息 , 从而导致生成的内容产生虚假陈述 。外在幻觉难以被轻易识别 , 因为虽然生成的内容可能是虚假的 , 但模型可以以逻辑连贯、有条理的方式呈现 , 使人们很难怀疑其真实性 。通俗的讲 , 也就是AI在“编造信息” 。
想象一下 , 我们在AI聊天 , 向其提问:“最近有哪些关于环保的新政策?”AI迅速回答了一系列看起来非常合理和详细的政策 , 这些政策可能是真实存在的 。但其中却有一个政策是完全虚构的 , 只是被AI编造出来 。这个虚假政策可能以一种和其他政策一样有逻辑和说服力的方式被表述 , 使人们很难在第一时间怀疑其真实性 。
这就是外在幻觉的典型例子 。尽管我们可能会相信AI生成的内容是基于输入的 , 但实际上它可能调用了虚构的数据或信息 , 从而混入虚假的内容 。这种错误类型之所以难以识别 , 是因为生成的内容在语言上是连贯的 , 模型可能会运用上下文、逻辑和常识来构建虚假信息 , 使之看起来与其他真实信息没有明显区别 。
AI为什么会产生幻觉?
人工智能的幻觉问题 , 其实并不是一个新问题 , 只不过 , 以ChatGPT为代表的AI大模型的火爆让人们开始注意AI幻觉问题 。那么 , AI幻觉究竟从何而来?又将带来什么危害?
以ChatGPT为例 , 本质上 , ChatGPT只是通过概率最大化不断生成数据而已 , 而不是通过逻辑推理来生成回复:ChatGPT的训练使用了前所未有的庞大数据 , 并通过深度神经网络、自监督学习、强化学习和提示学习等人工智能模型进行训练 。目前披露的ChatGPT的上一代GPT-3模型参数数目高达1750亿 。
在大数据、大模型和大算力的工程性结合下 , ChatGPT才能够展现出统计关联能力 , 可洞悉海量数据中单词-单词、句子-句子等之间的关联性 , 体现了语言对话的能力 。正是因为ChatGPT是以“共生则关联”为标准对模型训练 , 才会导致虚假关联和东拼西凑的合成结果 。许多可笑的错误就是缺乏常识下对数据进行机械式硬匹配所致 。


推荐阅读