为什么人工智能会拯救世界?( 四 )


然而 , 我们社会中的不平等问题确实存在 , 但它不是由技术推动的 , 而是由对新技术抗拒最大、政府干预最多的部分推动的 , 例如住房、教育和医疗保健等领域 。AI并不会导致更多的不平等 , 反而 , 如果我们允许使用AI , 它可能有助于减少不平等 。
7‍、 AI风险#5:AI会导致坏人做坏事吗?
AI风险的五大疑虑中 , 我已经解释了前四个并不构成真实威胁:AI不会突然活过来并对人类构成威胁 , AI不会破坏我们的社会 , AI不会导致大规模失业 , AI也不会引发破坏性的社会不平等增加 。然而 , 第五个疑虑 , 我必须承认 , 确实有可能成为问题:AI有可能使坏人更易于做坏事 。
科技 , 从一开始就被视为工具 , 它可以被用于好事 , 比如烹饪食物、建造房屋 , 同时也可以用于恶事 , 比如烧伤人或者用石头打人 。AI作为一种先进技术 , 当然可以被用于善事和恶事 。坏人 , 包括犯罪分子、恐怖分子和敌对政府 , 都可能利用AI来帮助他们更容易地做坏事 。
这个观点可能会使人产生一种想法 , 那就是在事情变得太糟糕之前 , 我们应该停止这个风险 , 禁止AI 。但AI并非某种稀有、深奥的物理材料 , 例如钚 。相反 , 它是基于最易得到的材料——数学和代码 。AI的研究和学习资源已经广泛开放 , 包括无数的免费在线课程、书籍、论文和视频 。优秀的开源实现也在日益增多 。AI像空气一样无处不在 , 试图阻止AI的发展需要施加严酷的极权压迫——比如全球政府监控和控制所有的电脑 , 或者抓捕违规的显卡——这样的后果我们将失去值得保护的社会 。
因此 , 有两种更实际的方式来应对坏人利用AI做坏事的风险 。首先 , 我们的法律已经将许多可能用AI实施的坏事定义为犯罪 。例如 , 入侵五角大楼 , 从银行偷钱 , 制造生物武器 , 实施恐怖行为 , 这些都是犯罪 。我们的工作应该是防止这些犯罪在我们能够防止的时候 , 当我们无法防止的时候 , 对犯罪者进行起诉 。我们甚至不需要新的法律 。如果我们发现了AI的新的坏用途 , 我们应该立法禁止这个特定的用途 。
其次 , 我们应该尽可能地利用AI进行好的、合法的、防御性的工作 。使AI在防止坏事发生的过程中发挥出其强大的能力 。例如 , 如果你担心AI生成的假人和假视频 , 解决方案应该是建立新的系统 , 让人们可以通过密码签名来验证自己和真实内容 , 而不是禁止AI 。我们也应该让AI在网络防御、生物防御、反恐以及其他我们需要做的所有事情中发挥作用 。
总的来说 , 尽管禁止AI看似是保护社会的手段 , 但真正有效的方法是使用AI去防止AI被坏人用来做坏事 。通过这种方式 , 一个充满AI的世界 , 将会比我们现在所生活的世界更安全 。
8‍‍、 我们应该怎么做?
我为处理AI问题提出了几点策略:
首先 , 大型AI公司应被鼓励尽可能快速和积极地发展AI , 但不能允许他们通过错误理解AI风险来获得政府的保护 , 形成卡特尔 。
其次 , 创业AI公司也应被鼓励尽可能快速和积极地发展AI , 他们不应受到政府保护 , 也不应接受政府的援助 。他们应该公平竞争 。
第三 , 开源AI应被允许自由扩散 , 与大公司和创业公司竞争 。这不仅有助于开放创新 , 也为希望学习AI的人提供了便利 。
第四 , 政府应与私营部门合作 , 积极使用AI处理潜在的风险问题 , 从AI风险到更普遍的问题 , 如营养不良、疾病和气候问题 。
It's time to build 。
9‍‍、 传奇与英雄
我以两个简单的陈述作为结束 。AI的开发始于20世纪40年代 , 与计算机的发明同时发生 。第一篇关于神经网络——我们今天所拥有的AI架构——的科学论文发表于1943年 。在过去的80年中 , 整整一代代的AI科学家诞生 , 上学 , 工作 , 而在很多情况下 , 他们在没有看到我们现在所获得的成果的情况下离世 。他们每一个人都是传奇 。


推荐阅读