DeepTech深科技|为何除了马斯克,没人愿意猜通用人工智能何时出现?( 五 )


他把蒙特利尔大学的人工智能研究员约舒亚?本乔这样的人算成温和派 。 本乔与扬?勒昆和杰弗里?辛顿在 2018 年共同获得了图灵奖 。 在 2014 年 AGI 会议的一场主题演讲中 , 本乔表示 , 构建一个具有人类水平的人工智能是可能的 , 因为人脑也是一个机器 , 我们只需要弄清楚关于这个机器的谜题 。 但是他并不相信超级智能 —— 一种超越人类思维的机器 。 不管怎样 , 他认为 , 除非我们找到一种方法让计算机有常识和因果推理能力 , 否则 AGI 是无法实现的 。
然而 , 吴恩达坚称他并不反对 AGI 。 “我认为 AGI 非常有吸引力 , 我很想去探究这个领域 , ” 他说 , “如果我有很多空闲时间 , 我就会自己做 。 ” 他在 Google Brain 工作期间 , 深度学习也发展得越来越强大 , 吴恩达和 OpenAI 一样 , 也想知道单凭简单地扩大神经网络是否可以成为通往 AGI 的道路 。 “但这些都只是问题 , 不是陈述 , ” 他表示 , “人们现在开始对 AGI 提出具体主张 , 所以 AGI 就引起了争议 。 ”
比起 AGI 何时能实现的狂妄看法 , 一个更有争议的问题是 , 如果我们任其发展 , 它能做些什么?对于这个问题 , 人们的猜测就跟科幻小说一样 。 马斯克说 AGI 将比核武器更危险 。 目前在武汉大学工作的人工智能研究员雨果?德加里斯曾在本世纪初预测 , AGI 将导致一场世界大战 , 并在本世纪末导致 “数十亿人死亡” 。 被他称为 “artilects” 的神一样的机器 , 将与人类支持者 Cosmists 结盟 , 对抗人类反对者 Terrans 。
德加里斯的文章与哈特和尤尔根?施米德胡贝(有时被称为 “现代人工智能之父”)等严肃研究人员的文章一起 , 发表在戈策尔的 AGI 书中 , 这对支持人工智能的阵营没有丝毫帮助 。 如果说 AGI 阵营中的许多人把自己看作是人工智能的火炬手 , 那么在 AGI 阵营之外的许多人则把他们看作疯子 , 他们把对人工智能的想法搅合在一起 , 其中包含了 “奇点”(当能够自我改进的机器超越人类时 , 一切就无法后退了) , 人类意识上传到计算机 , 超人类主义和世界末日 。
为什么 AGI 很重要?
几十年前 , 当人工智能并没有像明斯基等人大肆宣传的那样发展时 , 这个领域曾崩溃过许多次 。 资金链断裂 , 但研究人员继续前行 。 他们花了许多年才让这项技术脱离 “人工智能的冬天” , 并重新得到发展 。 然而 , 炒作仍然存在 。
吴恩达说:“所有的人工智能冬天都是由不切实际的期望造成的 , 所以我们需要在每一个转折点上与之斗争 。 ” 佩森蒂对此表示赞同 , “我们需要控制这些炒作” 。
更大的担忧是 , 这些不切实际的期望会影响决策者 。 柏林赫尔蒂行政学院的 AI 研究人员乔安娜?布莱森表示 , 她目睹了董事会和政府中许多愚蠢的想法 , 因为那里的人对人工智能有着科幻般的看法 。 这会让他们产生诸如机器人接管之类的荒诞担忧 , 而忽略了尚未解决的真正问题 , 比如通过扭曲的训练数据将种族偏见编码到人工智能中 , 算法如何工作能够降低透明度 , 或者当人工智能做出错误决定时谁应该承担责任 。
这种炒作也让投资者非常感兴趣 。 马斯克的资金帮助了真正的创新 , 但当他表示想资助存在风险的工作时 , 所有的研究人员都把他们的工作比作遥远未来的威胁 。 布莱森说:“有些人真的相信可以研究出 AGI , 但有些人只是为了钱、声望和其他的东西 。 我不知道他们是否都对自己完全诚实 。 ”
AGI 的吸引力并不令人惊讶 。 自我反省和创造是人类最重要的两种活动 。 按照我们的形象建造一台机器的欲望是不可抗拒的 。 许多现在对 AGI 持批评态度的人在早期职业生涯中都用过它 。 像戈策尔一样 , 布莱森花了几年时间试图制造一个人造婴儿 。 2005 年 , 吴恩达在世界主要的人工智能大会 NeurIPS(后来被称为 NIPS)组织了一个研讨会 , 题目是 “走向人类水平的人工智能?” 但现在他说:“这简直是疯了 。 ” 而现在经常批评 AGI 争论的勒昆 , 还给 AGI 做过主题演讲 。


推荐阅读