AI科技评论TB困扰人工智能50多年的常识问题,是否迎来“破局”?( 二 )


因此 , 无论知识库收集多么丰富多彩的知识 , 都难免无法捕捉到人类常识推理中常出现的模棱两可和关联重叠的情况 。
2 通往常识的两条道路:符号推理和深度学习
一直以来 , 常识都被称作“人工智能的暗物质”——既必不可少又令人沮丧地难以捉摸 。 这是因为常识是由隐式信息组成的 , 即人类自动用来理解世界的一系列不成文的假设和经验法则 。 以如下场景为例:
一个男人前往一家餐厅 。 他点了一份牛排 。 他留下了一大笔小费 。
如果你被问道 , 他吃了什么 , 你会很轻易地回答:牛排 。 但在这段描述中 , 并没有提到这个人吃了任何东西 。 这便是常识在其中发挥的作用 , 它让我们不需要被明确告知 , 就能够在字里行间知道:人们往往会在点完餐之后以及给小费之前 , 在餐厅里吃掉食物 。
计算机同样也需要常识 。 在一篇题为《常识程序》的论文中 , 就提到 , 在人工智能于1958年诞生后不久 , 常识推理便成为了人工智能研究的首要问题 。 纽约大学计算机科学家 Ernest Davis 自上世纪80年代便开始研究人工智能的常识问题 , 他表示 , 一般而言 , 没有常识 , 计算机就无法完全理解自然语言 , 也无法进行视觉和规划任务 。
尽管人工智能领域开始研究常识问题已久 , 然而进展还是慢得出奇 。 一开始 , 研究人员尝试将常识翻译成计算机语言——逻辑 。 他们认为 , 如果能够将人类常识中所有不成文的规则用计算机语言写下来 , 那计算机就能够像做算术一样 , 利用这些常识进行推理 。
这种符号推理方法 , 后来被称作“有效的老式人工智能(Good Old-Fashioned Artificial Intelligence , GOFAI ) ” , 这是通往常识的第一条道路 , 它让人工智能早期在常识问题上取得的进展成为了可能 。 不过 , 这种方法依赖人工 , 不具有扩展性 。 正如新西兰奥克兰大学人工智能研究人员 Michael Witbrock 所说的 , 能够方便地用逻辑形式表示的知识量 , 原则上是有限的 , 并且事实证明 , 这种方法实现起来非常艰巨 。

AI科技评论TB困扰人工智能50多年的常识问题,是否迎来“破局”?
本文插图

即使是对所有可能的逻辑关系进行适度的映射 , 也会很快遇到麻烦 。 上图所示的一些关系总是成立的(例如 , 吞咽总是饮食的一部分) , 有些关系只是偶尔成立的(一个人在餐馆吃饭) , 有些关系是不一致的(当蛋糕还在烤箱中时 , 人是不能吃到蛋糕的) 。 而像“cook”这样的节点 , 既可以指厨师 , 也可以指烹饪行为 。
另一条通往常识的道路 , 是使用神经网络进行深度学习 。 研究人员设计这样的人工智能系统来模拟生物大脑中相互连接的神经元层 , 在不需要程序员事先指定的情况下学习模式 。 在过去的十几年间 , 经过大量数据训练的越来越复杂的神经网络 , 已经变革了计算机视觉和自然语言处理领域的研究 。
然而 , 虽然神经网络具有较强的智能能力以及灵活性(实现自动驾驶 , 在国际象棋、围棋中击败世界一流的玩家) , 但是这些系统却仍然会犯很多令人啼笑皆非的常识性错误(有时甚至是致命的) 。
3 从GPT-2 到 COMET , 离常识更近了一步
艾伦人工智能研究所的研究员、华盛顿大学计算机科学家叶锦才(Yejin Choi)及其合作研究者对上述方法进行了统一 , 提出了自动知识图谱构建模型 COMET(Commonsense Transformers) , 融合了GOFAI 式的符号推理和深度学习两种截然不同的人工智能方法 。

AI科技评论TB困扰人工智能50多年的常识问题,是否迎来“破局”?
本文插图

COMET 的工作原理是 , 将常识推理想象成对新输入生成即便不完美也是合理的响应过程 , 而不是通过查阅一个庞大的百科全书式的数据库做严密的推理 。


推荐阅读