孤惯|通用人工智能啥时候能实现?这是我的最新预测

本文最初发表于 alexirpan 网站 , 由 InfoQ 中文站翻译并分享 。
在本文中 , 我将使用“通用人工智能”(Artificial General Intelligence , AGI)一词 , 表示为在几乎所有(95% +)有经济价值的工作上都能与人类相媲美或超越人类的人工智能系统 。 我更喜欢这样的定义 , 因为它关注的是导致最大的社会变革的原因 , 而不是我们如何实现这场变革 。
在 2015 年 , 我对通用人工智能何时能够实现做出了以下预测:

  • 到 2045 年 , 有 10% 的可能性 。
  • 到 2050 年 , 有 50% 的可能性 。
  • 到 2070 年 , 有 90% 的可能性 。
现在已经是 2020 年了 , 我将预测更新为如下:
  • 到 2035 年 , 有 10% 的可能性 。
  • 到 2045 年 , 有 50% 的可能性 。
  • 到 2070 年 , 有 90% 的可能性 。
我将 90% 的可能性的年份保持不变 , 但将其他一切都调得更快了 。 现在 , 如果你想知道我为什么选择这些特定的年份 , 以及为什么我用 10 年而不是 5 年或 15 年来改变 , 你将会失望的 。 因为这些都是我靠直觉进行预测的 。 重要的是为什么我的部分想法发生了变化——你可以在这个基础上 , 选择自己的时间轴进行调整 。
让我们先从简单的部分开始 。
我应该更不确定如果说 , 我从来没有对机器学习的研究感到惊讶 , 那将是一件不可思议的怪事 。 从历史上看 , 预测一个研究领域的发展轨迹是很难的 。 如果我从来没感到惊讶 , 我会认为这是由于我个人没有考虑足够大的想法所致 。
同时 , 当我回想起过去的五年 , 我相信我比平常更感到惊讶 。 并不是所有的事情都朝着积极的方向发展 。 无监督学习比我想象的要好得多 。 深度强化学习比我预期的要好一些 。 而迁移学习比我想的要慢一些 。 综合起来 , 我决定扩大结果的分配范围 , 所以 , 现在我把 35 年的时间分配到 10% ~ 90% 的时间间隔 , 而不是 25 年 。
我还注意到 , 我在 2015 年的预测将 10% ~ 50% 放在 5 年的范围内 , 50% 到 90% 放在 20 年的范围内 。 通用人工智能是一个长尾事件 , 确实有可能永远不可行 , 但 5 ~ 20 的拆分显然是不科学的 。 我正在相应地调整 。
现在 , 我们到了最难的部分 。 为什么我选择将 10% 和 50% 的年份更靠近现在呢?
我没有考虑到更好的工具三年前 , 我曾和一个人聊天 , 他提到通用人工智能没有“火警警报” 。 我告诉他们 , 我知道 Eliezer Yudkowsky 写了另一篇关于通用人工智能的文章 , 我还注意到 Facebook 的朋友们分享了这篇文章 , 但我还没有来得及阅读 。 他们将这篇文章总结为:“通用人工智能何时发生 , 永远不会很明显 。 即使是在它发生前几年 , 人们也会认为通用人工智能还很遥远 。 等到大家都认识到人工智能安全是世界上最重要的问题时 , 就已经太晚了 。
我的反应是 , “好吧 , 这和我从 Facebook 的时间轴上得到的信息相符 。 就在费米参加曼哈顿计划前几年 , 我就已经知道费米预测核连锁反应很可能是不可能的 。 最近 ,Rémi Coulom 表示 , 超人类的围棋程序大约还有 10 年时间 , 一年后才出现最初的可能迹象 , 两年后 ,AlphaGo 正式问世 。 我也已经知道人工智能安全的常识观点 。 ”我觉得这篇文章不值得花时间去阅读 。
(如果你还没有听过这些常识的争论 , 下面是简短版:大多人认为人工智能安全是值得的 , 即使没有人公开这么说 , 因为每个人都可能担心 , 如果他们主张采取激烈行动 , 其他人就会说他们疯了 。 即使每个人都同意 , 这种情况也可能发生 , 因为他们不知道每个人都同意 。 )
几年后 , 出于无聊 , 我重新阅读了这篇文章 , 现在我得向 Facebook 上那些只分享历史事件和常识的好友们抱怨了 。 尽管那篇帖子的总结是正确的 , 但是 , 我发现有用的想法都在总结之外 。 我是那么信任你 , 你就不能把泡沫过滤掉吗?你怎么可以这样让我失望呢?


推荐阅读