「科技」图灵奖得主Pearl:期待一场迷你革命,让机器理解“为什么”


当前机器学习的数据处理方法忽略了人类智能的一个基本要素 。
「科技」图灵奖得主Pearl:期待一场迷你革命,让机器理解“为什么”
本文插图
撰文|Judea Pearl、Dana Mackenzie
【「科技」图灵奖得主Pearl:期待一场迷你革命,让机器理解“为什么”】翻译|吴小安(清华大学-阿姆斯特丹大学逻辑学联合研究中心)
在通向人工智能那漫长又坎坷的路途中 , 计算机程序已经到达了一个纷乱点 。 它在那些我们曾经认为只有人类专属的任务中表现卓越 , 比如玩扑克或者在稠人广众中识别出一张脸 。 但使用相同技术 , 自动驾驶汽车却撞向路人和栏杆 , 于是对于它们是否总是值得信任 , 我们心存疑虑 。
在这急速发展又总有意想不到的困难出现的过程中 , 在经历了数十年的发展之后 , 机器依然无法企及人工智能的一个重要的构建基石:理解原因和结果 。
简单来说 , 今天的机器学习程序并不能告诉我们是否公鸡打鸣是太阳升起的原因 , 或者后者是前者的原因 。 不管机器分析多大体量的数据 , 它并不能理解人们直觉所获取的东西 。 从婴儿时候开始 , 我们就把我们的经验以原因和结果的形式组织 。 “为什么这件事会发生?”和“如果我以另一种方式来行动会怎么样?”的问题是认知发展的核心 , 使得我们人之为人 , 但目前机器还不具备这种能力 。
例如 , 假定一个药店决定把药品的定价权交给一个我们称为 Charlie 的机器学习程序 。 Charlie回顾药店过去的价格变动和销售记录后 , 发现牙膏价格的变化和销售量的改变不相关 , 因此决定提高牙膏销售价格以产生更多的利润 。 结果是 , 一个月之后牙膏的销售量降了下来 —— 与之相伴的还有牙线、饼干和其他商品的销售量 。 Charlie 在哪个地方犯了错误呢?
Charlie 并不明白之前的经理之所以会调整价格是竞争所致 。 当 Charlie 单方面的提高价格 , 那么对价格异常敏锐的顾客就会选择去其他地方消费 。 这个例子说明单单是历史的数据并没有告诉我们关于原因的任何东西 —— 且因果的指引是重要的 。
在分析数据模式方面 , 机器学习系统取得了令人为之侧目的进步 , 但那只是人工智能的低端成果 。 要达到更高端的成果 , AI需要一个阶梯 , 我称之为因果的阶梯 , 它包含因果推理的三个层级 。
第一层级是相关 , 当前的学习机器和大多数动物都位于这一个层次 , 在这个层级 , 巴甫洛夫的狗习得了铃声响起和有食物可吃之间的联系;下一个层级是干预 , 目的是看看如果刻意制造铃声 , 或者提高牙膏的价格将会发生什么?干预不同于观察 , 无理由提高价格和以过去的数据表现为依据提高价格有不同的后果;最高的层级是反事实 , 这是一种想象结果会如何的能力 , 反思一个人的行动并在在其他情境中做判断 。 正是在这一层次 , 机器能够达到对责任、归誉、咎责以及自我更新的判定和传达 。 想象给予一辆自动驾驶汽车这种能力 , 在一个事故之后 , 它的 CPU 会问自己这样的问题:如果我没有向醉酒的行人按喇叭将会发生什么呢?
为了达到更高的层级 , 除了更多的数据之外 , 机器需要一个暗含着因果元素的模型 —— 实质上是原因和结果的数学 。 也许是这样一个简单的因素:“酒精会损伤一个人的判断 , 醉酒之人会以异于寻常的方式运动” , 我们可以以科学家所称之为的因果图来编码这个信息 , 在这个图中箭头表示的是一系列可能的因果关系:酒精 损伤判断 非正常举动 。 这类图不只是为了简洁优美 , 而且构成了一个初步算法 , 以此就使得汽车能够预测某类行人对于汽车喇叭所发出的鸣叫会做出异乎寻常的反应 。 这也为我们“拷问”汽车解释它的所为提供了可能:为什么你要按喇叭呢?
当前的机器学习系统只在一个受规则严格限制的小范围内才能通达更高的层级 , 比如下象棋 。 超出这个范围 , 它就会手足无措、错误百出 。 但是如果有了因果模型 , 机器就能预测之前所从未经历的行动的结果 , 并反思这个结果 , 然后把所学到的技能应用于新的情形中 。


推荐阅读