DeepTech深科技|为何除了马斯克,没人愿意猜通用人工智能何时出现?( 二 )


莱格说:“在 21 世纪头几年讲 AGI , 大家会觉得你疯了 。 甚至在 2010 年我们创立 DeepMind 的时候 , 去开会时还特别多人一脸不屑 。 ” 但现在变了 , “有些人还是不喜欢它 , 但 AGI 势不可挡 。 ”
那么 , 为什么 AGI 会引起争议?为什么 AGI 如此重要?它是一个不顾后果的误导方向?还是人工智能的最终目标?
什么是 AGI?
这个词已经流行了十多年了 , 但是它所概括的想法已经跨越了一代人的时间 。
1956 年夏天 , 十几位科学家在美国新罕布什尔州的达特茅斯学院相聚 , 一起做了个 “小” 研究项目 。 人工智能先驱约翰?麦卡锡、马文?明斯基、纳特?罗切斯特和克劳德?香农率先宣传了这个项目 , 并写道:“该研究基于下列推测:原则上 , 我们可以精确描述学习的各个方面或智能的任何特征 , 并且能够制造一台机器来模拟 。 该研究将尝试教会机器使用语言、有抽象能力、形成概念 , 能解决现在人类所面临的各种问题 , 并且机器会自我改进 。 ”科学家们认为 , 如有 10 人参与 , 两个月便能完成项目 。
到 1970 年 , 明斯基又大胆表示:“在三到八年内 , 我们将拥有一台与普通人类智慧相当的机器 。 也就是说 , 这台机器可以阅读莎士比亚的戏剧 , 给汽车加油 , 谙熟办公室规则 , 讲笑话 , 打架 。 那时 , 机器将开始以惊人的速度进行自我改进 。 再过几个月 , 它将达到天才的水平 。 再过几个月 , 它的力量将不可估量 。 ”
在这些关于 AI 的愿景中 , 有三点引人注目:接近人类水平的归纳能力、超快的自我改进能力(呈指数级增长)、极强的想象能力 。 但半个世纪以来 , 我们仍然无法创造出具有人类多任务处理能力的 AI , 现在 AI 的多任务处理能力甚至都比不上昆虫 。
但也并非没有傲人成就 。 现在的机器可以使用语言、有视觉、能解决许多问题 , 已经实现了当初不少目标 。 但如今的 AI 并不是先驱者想象的那样接近人类水平 。 深度学习推动了 AI 蓬勃发展 , 能训练机器掌握写故事、下棋等能力 , 但 AI 无法同时做多件事 。
有时 , 莱格将 AGI 视为多功能工具 , 认为 AGI 可以解决许多不同问题 , 可以不必为每一项挑战都设计一个新的 AI 。 按照这种观点 , AGI 不会比 AlphaGo 或 GPT-3 更智能 , 而是会掌握更多功能 。 AGI 将是通用 AI , 而不是高度发展的智能 。 但是莱格还认为 , 人类可以与 AGI 交际 , 就好像它也是人类 。
他所描述的机器像是玩伴:如果可以与机器互动 , 给机器展示新的纸牌游戏 , 教机器玩 , 机器会问问题 , 然后一起玩游戏 , 那可太美了 。 “我的梦想成真了 。 ” 他说 。
当人们谈论通用人工智能时 , 通常会想到的是这些类似于人的能力 。 但称其 “类似于人类” , 既含糊又过于具体 。 人类是我们所拥有的通用智能的最佳典范 , 但人类也高度专业化 。 想一下动物智能的领域:从蚂蚁的集体认知到乌鸦或章鱼解决问题的技能 , 到更容易识别但仍不可知的黑猩猩的智能 , 这些都显示出建立通用智能的方法有很多 。
【DeepTech深科技|为何除了马斯克,没人愿意猜通用人工智能何时出现?】即便我们的确构建了通用人工智能 , 可能也无法完全理解它 。 当今的机器学习模型通常是 “黑匣子” , 这意味着它们获取准确结果的计算方式没人可以理解 。 再加上能够自我改进的超级智能 , 所以这就是为什么科幻小说经常提供最简单的类比 。
有些人也会将意识或感知带入通用人工智能的要求中 。 但如果智能就很难下定义 , 意识就更难了 。 哲学家和科学家尚不清楚人类到底是什么 , 更不用说计算机中的内容了 。 智能可能需要某种程度的自我意识 , 能够反思你对于世界的看法 , 但这并不一定与意识是同一回事 , 意识是体验世界的感觉或是反思自己对世界看法的感觉 。 即使 AGI 最忠实的信徒也不能了解机器意识 。


推荐阅读