曾毅对话郝景芳:人工智能不是未来,而是现在 | VC洞见( 二 )


我有一个同事 , 训练恒河猴大概两到五周的时间 , 使得它在训练以后能够通过镜像测试 。 当时给我的启发就是 , 如果我要构建一个猴脑的计算模型 , 要做的实验就是人们设计给训练猴子的这个实验 。 如果猴子能够学会通过镜像测试 , 那么是不是人工智能也能够学会通过镜像测试 。 最终的结果是积极的 , 我们的小机器人通过了镜像测试 。 你在用激光笔打到它的脸上的时候 , 它知道你打的是他的脸 , 而不是其他的几个长得跟它一模一样的机器人 。 但是在未经训练之前 , 它没有这样的意识 。
当时这件事情 , 把我神经科学的同事吓了一跳 。 他们说 , 这一定是个假新闻 , 因为机器人怎么可能具有意识呢?我没有说机器人具有意识啊 , 我是说 , 通过这个训练后 , 使猴子有了自我意识 。 但实验是你设计的 , 猴脑是猴子大脑的一个复制品 , 我们把它运用到机器人身上去 。 现在猴子通过了测试 , 你说猴子具有自我意识 , 机器人通过测试 , 你说机器人没有自我意识 , 我说这个道理在哪里呢?实际上我的结论是说一个没有自我意识的机器人 , 现在通过了镜像测试 , 那能说明什么呢?说明从神经学和心理学出发设计的镜像测试 , 可能并不能作为检测自我意识的黄金标准 。
郝景芳:我非常有感触 。 人工智能带来的最大好处 , 其实是让我们人类更理解我们自己 。 就比如说我看了一些人工智能的相关原理后 , 我发现人工智能 , 它其实是很难做自我驱动的一些事情 , 你让它下围棋 , 它不会去干别的 。 所以我观察小朋友 。 他现在一岁多 , 每到一个陌生的环境 , 会四处打量 , 觉得很稀奇有趣 。 当他看到有人把百叶窗的窗帘哗的弄下来时 , 他看呆了 , 仿佛没见过这么有意思的现象 。 于是就跑到窗户旁边 , 也想摆弄着玩 。
但人工智能就不一样了 , 像AlphaGo虽然战胜了人类 , 却并不会想到除了下围棋 , 还能去做什么 , 这种自我驱动力是AI所没有的 。
【曾毅对话郝景芳:人工智能不是未来,而是现在 | VC洞见】那我们人类是如何拥有这种力量的?就像曾教授刚才讲的自我意识 , 我也是看马文·明斯基的作品《情感机器人》 , 他说人至少有六层自我认知 。 先自我认知 , 然后有个自我批评 , 再对自我批评的自我批评 , 然后有一个自我综合定位等等 。 所以 , 人类的意识是非常复杂的 。 我们越是想要构建发达的AI神经网络 , 就越发现“哦 , 其实我们人类本身就挺神奇的 。 ”
AI的善与恶 要看人类怎么定义曾毅:另一个非常有意思的观点同样来自一位哲学家 。 他认为:“拟人化的人工智能是一个错误的发展道路 , 因为人类的情感和价值观 , 就是我们仇恨、敌视的来源 , 所以模仿了人类的情感和价值观的机器人 , 会像我们现在的人类一样危险 。 ”我想他要表达的意思 , 并不是对人类很失望 , 而是说我们人类不完善的那一面 , 有可能被计算机学到 , 特别是我们所说的人类价值观 。 如果我们自身的价值观不正确的 , 定义这个价值观的人是不正确的 , 那么产出的人工智能系统就非常危险 。
郝景芳:因为现在很多人就在讨论互联网的极化 。 本来大家认为信息是平的 , 世界都变平了 。 但是现在发现互联网的时代 , 大家反而各自凑到一起 , 反而激化了各种极端观点 , 声音被放大 。 那未来会不会形成好多种人工智能 , 比如说 , 性别偏见人工智能 , 他们就专门是做性别偏见的智能 。 还有民族仇恨的人工智能 , 人和人的极端矛盾思想作用于AI 。 人工智能世界也会变得激化吗?
曾毅:不排除这种可能 。 目前构建人工智能物 , 我们是在说人类要把人工智能变成什么样子 , 所以它仍然是人类的一面镜子 。 现在人类的很多方面 , 像你说的会比较极端化 , 所以我们现在要想如何避免这些情况的发生 。
首先 , 我希望人工智能的模型演化速度要比大脑的演化速度再快一点 。 我觉得超级智能什么时候到来不重要 , 重要的是我们怎么定义 。 如果超级智能真的超级 , 那么它在我们所说的利他之心等方面 , 都要比人有过之而无不及 。 只有那样的话才是真正的超级智能 。 所以像有些人说超级智能如果真的实现了 , 那人类就灭亡了 。 我说那还不是真正超级智能 , 仍然是一个没有演化好的超级智能 。


推荐阅读