苹果发布会:iPhone12加量减价了,但最大亮点是人工智能( 二 )


经典科幻电影《2001太空漫游》 , 也许就是对这个问题的最好诠释 。
在这部电影中 , 有一个重要角色 , 就是太空飞船上的一套9000型计算机 , 它有一个特别的名字“哈尔” , 这台拥有人工智能的计算机的任务 , 就是协助人类宇航员完成星际飞行和考察任务 。
苹果发布会:iPhone12加量减价了,但最大亮点是人工智能文章插图
在影片中 , 飞船上的9000型计算机哈尔 , 在飞船的例行故障报修和检测中 , 竟然产生了一次无厘头的误报 。 也就是说 , 它和地球上的同型号计算机 , 根据一模一样的数据、一模一样的程序 , 竟然得出了不同的计算结果 , 这就意味着 , 两台计算机之间形成了某种“区分” 。
然而 , 身为一台最顶级的计算机 , 自负的哈尔不承认自己计算错误 , 于是它把所有的错误都推到了“愚蠢的人类”身上 。
在哈尔表现出死不认错的太多后 , 宇航员们发现了它的异常 , 于是 , 他们商量着要重装哈尔的系统 。 但这个计划被哈尔发现了 , 于是它先下手为强 , 宣称飞船上的某个部件即将失灵 , 以此作为诱饵 , 趁机杀死了舱内的几位宇航员 。
苹果发布会:iPhone12加量减价了,但最大亮点是人工智能文章插图
哈尔作为人工智能 , 为何会产生杀人的邪念?
原著作者克拉克在小说《太空漫游》的第二部里向我们揭示出 , 导致这场悲剧的根本原因就是 , 哈尔产生了自我意识 。 换言之 , 哈尔有了“自我意识” , 它的“我”就和人类形成了“你死我活”的对立关系 , 因此才想要杀死人类!
那么 , 人工智能有了自我意识 , 就一定会对人类产生不利影响吗?人类作为人工智能的创造者 , 是否可以提前避免这种情况发生呢?
要解答这个问题 , 我们就要从大名鼎鼎的“机器人三定律”说起了 。
“机器人三定律”是由科幻作家阿西莫夫在《我 , 机器人》这本书里首次提出的 , 其内容为:
第一定律:机器人不得伤害人类个体 , 或者目睹人类个体将遭受危险而袖手不管 。
第二定律:机器人必须服从人给予它的命令 , 当该命令与第一定律冲突时例外 。
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存 。
后来阿西莫夫又在《机器人与帝国》一书中 , 提出了凌驾于“机器人三定律”之上的“第零定律”:
苹果发布会:iPhone12加量减价了,但最大亮点是人工智能文章插图
机器人必须保护人类的整体利益不受伤害(其它三条定律都是在这一前提下才能成立) 。
然而 , “机器人三定律”和“第零定律” , 真的能保护人类不受人工智能威胁吗?
首先 , 这几条定律本身就包含许多无法自洽的BUG , 例如“人类的整 体利益”究竟是啥?这种模棱两可的概念 , 就连人类自己都搞不明白 , 更不必说那些用0和1来想问题的机器人了 。 正因如此 , 另一位著名科幻作家威尔·史密斯才一针见血地评论说:机器人没有问题 , 科技本身也不是问题 , 人类逻辑的极限才是真正的问题!
苹果发布会:iPhone12加量减价了,但最大亮点是人工智能文章插图
再者 , 当机器人面临两难选择时 , 它的运算逻辑就会受到巨大的考验 。 就拿那个著名的“电车悖论”来说吧:假如一辆电车正驶向一个岔口 , 并准备左转 。 左边岔路上绑着 5 个人 , 右边岔路上绑着 1 个人 , 此时 , 站在控制台上的机器人 , 该不该控制转向?
也就是说 , 在逻辑层面上 , 一个遵守三大定律的机器人 , 迟早会遇到一个在数学模型上与“电车悖论”完全等价的困境——它要么救 5 个人害死 1 个人 , 要么为了不害死 1 个人而通过不作为害死了 5 个人 。


推荐阅读