此外,谈及AI带来的失业问题,他认为关键在于如何分配财富,如何组织社会使每个人都能从中获益 。这是一个政治问题,不是技术问题,也不是人工智能造成的新问题,而是技术进化造成的 。
在杨立昆、吴恩达等乐观主义者的观点中,可以发现一个共识:任何新技术在初次出现时,都不可能完美无缺 。
实际上,人类需要的是一种可以控制的方式,限制技术可能带来的危害,对其进行有效地监管,并解决可能的恶性用例 。完全中断研发进程并不是一个明智的决策 。人类应该保持对技术进步的尊重和包容,而不是因为害怕未知而过早地否定其潜在的价值 。
谨慎派:心思各异的联盟
相较于乐观派,谨慎派的阵营似乎人数更多,也反应了人性的一种普遍趋势 。当新的事物出现时,它往往会引发人们的担忧和疑虑 。这是人类对可能带来颠覆性改变的新技术所产生的本能反应 。
在两轮的公开签名活动中,可以看到谨慎派的声音和影响力逐步增强 。当这种关于“AI风险”的讨论在外界引发了广泛地思考和讨论的同时,一些质疑声音也不断出现 。
关于“AI的风险和危害”,这个话题已经成为了一个表态的舞台,每个参与者都希望在这场风潮中塑造自己的正面形象 。
然而,问题在于,这场大讨论真的有用吗?表面看起来,似乎每个人都在积极参与,但实际上,却鲜有人真正采取行动 。这种现象在一定程度上显得像是在浪费大家的时间 。“那些创造出AI技术的人参与这种声明,其实无非就是为了给自己博取好名声 。”这是不少业界人士对这种现象的评价 。
![AI威胁论:先过狗关,再赛人智](http://img.jiangsulong.com/230620/154251N06-3.png)
文章插图
就连“人工智能之父”,德国计算机科学家于尔根·施密德胡伯(Jürgen Schmidhuber)也表示,许多在公开场合对人工智能的危险提出警告的人只是在寻求宣传 。
当然,在一些人可能试图利用这种情况来提升自己的知名度的同时,不乏也有一些独到的见解 。
中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,也在CAIS组织的这封公开信中签名 。他认为,公开信的目的并不是阻碍人工智能的发展,而是绝大多数人有权利知道人工智能的潜在风险,研发者们也有义务确保人工智能不给人类带来生存风险,至少要确保这种风险的最小化 。
在他的观点中,人工智能对人类生存所可能带来的威胁,可以从两个不同的角度进行分析:
如果将目光放到无限远,远到通用人工智能和超级智能到来,AI智力水平可能远超人类,那么或许就会像很多影视作品呈现的那样,视人类如同蝼蚁,与人类争夺资源,甚至危及人类生存 。
![AI威胁论:先过狗关,再赛人智](http://img.jiangsulong.com/230620/1542511204-4.png)
文章插图
如果只看现在和不远的未来,当代人工智能只是看似智能的信息处理工具,不具有真正的理解能力 。但曾毅认为,正因为它们算不上真正的智能,不理解什么是人类、什么是生死和什么是生存风险,才有可能会以人类难以预期的方式犯下人类不会犯的错误 。而这恰恰是更紧迫的关切所在 。
有趣的是,这似乎正好在反驳杨立昆的两大主要论点 。
此外,谨慎派阵营中,三位“人工智能教父”中的两位辛顿(Geoffrey Hinton)和本吉奥(Yoshua Bengio)也赫然在列 。他们曾因在深度学习方面的工作,与杨立昆共同获得2018年“图灵奖” 。
【AI威胁论:先过狗关,再赛人智】然而,与杨立昆的观点相左,本吉奥在接受采访时坦言,他开始对自己这一生的工作成果产生了一种“迷茫”的感觉 。本吉奥认为,所有致力于构建强大AI产品的企业都应该进行正式的注册和报备 。“政府需要对这些公司的行动进行追踪,对其工作内容进行审查,对AI行业至少要实行像对待航空、汽车或者制药等领域一样的监管机制 。”
辛顿则在近期辞去了谷歌的工作,并警告这一技术领域的持续发展或将带来巨大风险 。辛顿表示,“我总在用这样的借口安慰自己:哪怕我自己不做,其他人也会这样做 。但目前真的不知道要怎么防止坏蛋利用 AI 来作恶 。”
辛顿对于AI的担忧主要有两个方面 。首先,他担心AI会完全取代那些需要大量记忆的工作,这可能会对许多行业和职业产生深远影响 。其次,随着AI逐步获取编写和运行自身代码的能力,他担忧AI最终可能取代人类的位置 。