AI来了,新奇之余担忧显现( 二 )


把AI管起来
AI技术爆发式发展 , AI监管随之而起 。
3月,一批AI科学家和研究人员呼吁暂停AI开发六个月 。“只有当我们确信其影响将是积极的 , 其风险将是可控的时候,才应该开发强大的AI系统 。”他们在信中说 。
当然,AI开发没有因为这封信而暂停 。但这封信传达了一个强烈信号,即人类已经到了需要关注AI带来的风险的时刻了 。
同月,联合国教科文组织总干事奥德蕾·阿祖莱发表声明,呼吁各国尽快实施该组织通过的《人工智能伦理问题建议书》,为人工智能发展设立伦理标准 。
7月,中国政府发布《生成式人工智能服务管理暂行办法》,以促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益 。
10月,美国总统拜登签署行政命令,推动15家AI领域领军企业自愿承诺推动安全、可靠和可信的AI发展的工作,并建立AI安全的新标准 。
11月,首届全球人工智能(AI)安全峰会在英国举办,包括中国、美国、英国在内的28个国家及欧盟共同签署了《布莱切利宣言》,承诺以安全、以人为本、值得信赖和负责任的方式设计、开发、部署和使用AI 。
12月,欧洲议会、欧盟成员国和欧盟委员会三方就《人工智能法案》达成协议,该法案经过多年辩论,为AI应用设置了规则和风险分级制度,这是全球首个针对AI的主要法规 。

AI来了,新奇之余担忧显现

文章插图
2023年4月14日,新京报专访加利福尼亚大学伯克利分校计算机科学教授斯图尔特·罗素报道版面 。
  • 采访人员手记
今年年初,AI聊天机器人突然走红 。人们在新奇中夹杂疑虑 。恰逢一批科学家和业内人士写了一封公开信,呼吁暂停正在进行的AI开发竞赛,并警告AI的风险 。
这封公开信的末尾附着一连串响亮的名字:图灵奖得主、蒙特利尔大学教授约书亚·本吉奥,加利福尼亚大学伯克利分校计算机科学教授、智能系统中心主任斯图尔特·罗素,特斯拉创始人埃隆·马斯克,苹果联合创始人史蒂夫·沃兹尼亚克,以色列学者尤瓦尔·赫拉利……
我们顺着这份名单一个接着一个联系,多数人出于各种原因没有接受采访 。幸好,斯图尔特·罗素回复说可以通过邮件回答一些问题 。罗素是国际人工智能联合会议(IJCAI)两项大奖得主 , 其与他人合著的《人工智能:一种现代的方法》被誉为人工智能领域最受欢迎的教材 。
我们与罗素在两周时间内断断续续地沟通了十几封邮件 。罗素及一批科学家担心的AI风险,并不只是我们目前能够看到的信息不准确、利用AI造假等 , 更多是对未来不确定性的担忧 。
他进一步解释道,大型语言模型是非常大的“黑箱系统”(Black-box system),即一个系统的内部运作方式对于外部观察者是不可见的或难以理解的 。因此,即使我们赋予AI的是一个善意的目标 , 它仍可能带来灾难性后果 。
罗素假设了一个场景:假如抽掉大气中的氧气可以阻止气候变化,人类肯定不会同意这种方案 , 因为没有氧气会导致所有人类灭亡,但AI可能会认为这个方案是没有问题的,因为这个方案可以实现其预设的阻止气候变化的目标,且它自身也不需要依靠氧气来生存 。
对于罗素提出这个假设,业界正在试图给出解决方案 。不少AI模型开发商采取“基于人类反馈的强化学习”(RLHF)技术 , 绕过了给AI设置目标这一风险环节 。通俗来说,RLHF有一点像驯狗,人类评估员对AI作出的不同响应给予“奖励”和“惩罚”,以此来规范AI 。另外,有研究团队提出编写一部AI“宪法”,即一套AI必须遵守的规则和价值观来规范AI 。
但这两种路径各有短板或难点 。前者需要大量的人力 , 且对于今后可能出现的超越人类思维能力的AI来说,这一方法可能不会奏效 。后者的问题之一是谁来编写这些规则,应该由专业人士操刀还是应该鼓励大众参与 。
AI监管领域遇到的另一个难题是技术发展快,去年的AI监管方案可能今年就过时了 。比如,欧盟前几年在讨论AI监管时,还没有遇到生成式AI爆炸式发展 。因此,今年欧盟在通过“AI法”之前,不得不对其进行大幅修改 。
回到年初科学家们发出的那封公开信,其实他们很明白 , 从可行性角度来看,在世界范围内协调所有政府、企业叫停AI开发是一件几乎不可能的事 。罗素自己也说,这封公开信的意图是引发世界各地媒体和政府的关注 。在过去一年内 , 首届全球AI安全峰会召开,首部“AI法”诞生,注意力和资源都开始涌入这一领域,罗素等人的意图无疑是实现了 。


推荐阅读