硅谷预言家安德森万字长文:人工智能不会毁灭世界,反而可能拯救世界( 八 )


这方面的典型例子是埃隆·马斯克 (Elon Musk) 在 2006 年为特斯拉制定的所谓 “秘密计划” —他自然而然地公开了这一计划:
第 1 步 , 打造 [昂贵] 跑车Step 1
第 2 步 , 用这笔钱制造一辆负担得起的汽车
第 3 步 , 用这笔钱制造一辆更实惠的汽车
......当然这正是他所做的 , 结果成为世界上最富有的人 。
最后一点是关键 。如果埃隆今天只卖汽车给富人 , 他会更富有吗?不 , 如果他只为自己制造汽车 , 他会比这更富有吗?当然不是 。不 , 他通过向世界这个最大的可能市场销售来最大化自己的利润 。
简而言之 , 每个人都得到了东西——正如我们在过去看到的 , 不仅有汽车 , 还有电力、收音机、电脑、互联网、手机和搜索引擎 。此类技术的制造商非常积极地降低价格 , 直到地球上的每个人都能负担得起 。这正是 AI 中已经发生的事情——这就是为什么你不仅可以低成本使用最先进的生成 AI , 甚至可以免费使用 Microsoft Bing 和 google Bard 的形式——而且这将继续发生 。不是因为这些供应商愚蠢或慷慨 , 而是因为他们贪婪——他们想要最大化他们的市场规模 , 从而最大化他们的利润 。
因此 , 发生的情况与技术推动财富集中化相反——技术的个人客户 , 最终包括地球上的每个人 , 反而被赋予了权力 , 并获得了大部分产生的价值 。与现有技术一样 , 构建人工智能的公司——假设它们必须在自由市场中运作——将激烈竞争以实现这一目标 。
这并不是说不平等不是我们社会的问题 。是的 , 它不是由技术驱动 , 而是被相反的驱动 , 由对新技术最有抵抗力的经济部门驱动 , 这些经济部门有最多的政府干预来阻止采用像人工智能这样的新技术——特别是住房、教育和医疗保健 。AI 和不平等的实际风险不是 AI 会导致更多的不平等 , 而是我们不允许 AI 被用来减少不平等 。
到目前为止 , 我已经解释了为什么五个最常被提及的 AI 风险中有四个实际上并不真实——AI 不会复活并杀死我们 , AI 不会毁灭我们的社会 , AI 不会导致大规模失业 , AI 不会导致不平等的破坏性增加 , 但现在让我们谈谈第五点 , 我非常同意的一点:人工智能将使坏人更容易做坏事 。
从某种意义上说 , 这是一个同义反复 。技术是一种工具 。工具 , 从火和石头开始 , 可以用来做好事——做饭和盖房子——也可以用来做坏事——烧人和打人 。任何技术都可以用于好事或坏事 。很公平 。毫无疑问 , 人工智能将使罪犯、恐怖分子和敌对政府更容易做坏事 。
这导致一些人提议 , 好吧 , 既然如此 , 我们就不要冒险了 , 让我们在这种情况发生之前禁止人工智能吧 。不幸的是 , 人工智能并不是像钚那样难以获得的深奥物理材料 。恰恰相反 , 它是世界上最容易获得的材料——数学和代码 。
你可以从数以千计的免费在线课程、书籍、论文和视频中学习如何构建 AI , 而且优秀的开源实现每天都在激增 。人工智能就像空气——它将无处不在 。逮捕如此严酷的人所需的极权主义压迫程度——一个监视和控制所有计算机的世界政府?黑色直升机中的长靴暴徒夺取流氓 GPU?– 我们不会有一个社会需要保护 。
因此 , 有两种非常直接的方法可以解决坏人用人工智能做坏事的风险 , 而这些正是我们应该关注的 。
首先 , 我们有法律将任何人用人工智能做的大多数坏事定为犯罪 。入侵五角大楼?那是一种犯罪 。从银行偷钱?那是一种犯罪 。制造生化武器?那是一种犯罪 。实施恐怖行为?那是一种犯罪 。我们可以简单地集中精力在力所能及的情况下防止这些罪行 , 在我们不能的情况下起诉它们 。我们甚至不需要新的法律——我不知道有哪一个已经被提议的 AI 的实际不良使用还不是非法的 。如果发现新的不良用途 , 我们将禁止该用途 。
但是你会注意到我在那里漏掉了什么——我说我们应该首先关注在人工智能协助的犯罪发生之前预防它们——这样的预防难道不意味着禁止人工智能吗?好吧 , 还有另一种方法可以防止此类行为 , 那就是使用 AI 作为防御工具 , 使人工智能在有坏目标的坏人手中变得危险的能力 , 在有好目标的好人手中变得强大——特别是那些工作是防止坏事发生的好人 。


推荐阅读