深度学习不是AI的终极答案


深度学习不是AI的终极答案

文章插图
出品|虎嗅科技组
作者|齐健
编辑|陈伊凡
头图|FlagStudio
“一天清晨,你的AI助理给我发出了一份访谈邀约,于是我让我的AI助理处理它 。后面的事情则是由两个AI系统来完成了,在它们之间经历多轮对话,最终敲定日期,并预定了会议室,全程没有人类参与 。”
这是迈克尔·伍尔德里奇(Michael Wooldridge)描绘的未来图景 。他是英国AI科学家,现任牛津大学计算机科学系教授 。
当人工智能可以互相交流时,我们的社会将发生怎样的变化?
在1个小时的对谈过程中,伍德里奇对这个话题兴趣盎然,他是多智能体系统(Multi Agent System)研究的全球顶尖学者之一,“AI之间的协作”是他的重点研究方向 。
在伍尔德里奇看来,无论是打败人类的AlphaGO,还是对答如流的ChatGPT,虽然人工智能变得越来越像人类,甚至在一些领域开始超越人类,但我们离真正的人工智能仍有一段很长的距离 。
当大多数人沉浸在OpenAI创造的现象级创新时,伍尔德里奇显得冷静许多 。ChatGPT在展现神经网络的强大时,也展示了它的瓶颈——其无法解决巨大的功耗和算力问题、无法解决的AI“黑盒”问题,“深度神经网络虽然经常能完美回答我们的问题,但我们并不真正理解它为什么会这样回答 。”
超过人类的AI常被称为“强人工智能”,而具有普遍人类智能水平的AI则称为通用人工智能(Artificial general intelligence,AGI) 。伍尔德里奇在他的著作《人工智能全传》中这样描述AGI:AGI大致等同于一台拥有一个普通人所拥有的全部智慧能力的计算机,包括使用自然语言交流、解决问题、推理、感知环境等能力,与一个普通人处于同等或者更高等级的智能水准 。关于AGI的文献通常不涉及自我意识或者自主意识之类,因此AGI被认为是弱人工智能的弱版本 。
然而再“弱”的AGI也与当代的人工智能研究相去甚远 。
“ChatGPT是一款成功的AI产品,它非常擅长涉及语言的任务,但仅此而已 。我们离AGI还有很长的路要走 。”在与虎嗅的对谈中,伍德里奇说,深度学习使我们有能力构建一些几年前无法想象的AI程序 。但这些取得非凡成就的AI程序,远算不上推动AI朝着宏伟梦想前进的魔法,也并不是当前AGI发展难题的答案 。
深度学习不是AI的终极答案

文章插图
迈克尔·伍尔德里奇(Michael Wooldridge)是国际人工智能学界领军人物,现任牛津大学计算机学院院长,投身人工智能研究30余年 。曾担任2015年-2017年国际人工智能联合会议(IJCAI)主席(该会议是人工智能界顶级会议之一),2020年获颁英国计算机领域至高荣誉——洛芙莱斯奖章,被誉为英国计算机领域具有重要影响力的三位学者之一 。
ChatGPT并不是构建AGI的答案
在ChatGPT出现之前多数人认为通用人工智能非常遥远,2018年出版的一本名为《智能架构》的书中,对23位AI领域专家进行了调研,在回答“哪一年能够有50%的机会实现通用人工智能”时,谷歌工程总监Ray Kurzweil认为是2029年,而iRobot联合创始人Rodney Brooks给出的时间则是2200年 。所有回答了这个问题的18位专家预测的平均时间点是2099年 。
不过Elon Musk在2022年也发表了关于2029年实现AGI的观点,他在Twitter中表示,“2029 feels like a pivotal year. I'd be surprised if we don't have AGI by then.(感觉2029年是关键的一年 。如果那时我们还没有AGI,我会很惊讶)”
对此,知名AI学者Gary Marcus提出了五个检验 AGI 是否实现的标准,包括:看懂电影、读懂小说、当厨师、根据自然语言规范或通过与非专业用户的交互,可靠地便携超过10000行无bug代码,以及用自然语言编写的数学文献中任意提取证明,并将其转换为适合于符号验证的符号形式 。
现在看来,ChatGPT代表的通用大模型似乎朝AGI迈出了一大步 。读懂小说和看懂电影的任务,似乎指日可待了 。对此,迈克尔·伍尔德里奇教授认为,目前来看,人类仍然很难在2029年实现AGI 。
虎嗅:像AlphaGo一样的AI专家虽然打败了人类,但它们的能力在实际应用方面存在很大的局限性,今天的通用大模型似乎正在打破这样的局面 。您对专家型AI和AGI未来的发展有怎样的看法?
迈克尔·伍尔德里奇:“符号人工智能”是早期人工智能的一种模式,即假设“智能”是一个关于“知识”的问题,如果你想要一个智能系统,只需要给它足够多的知识就可以了 。


推荐阅读