文章插图
胡泳北京大学新闻与传播学院教授
在GPT-4火热出炉、人工智能军备竞赛方兴未艾的形势下,包括埃隆·马斯克(Elon Musk)和苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)在内的千余名科技领袖签署了一封公开信,恳请研究人员在六个月内暂停开发比GPT-4更强大的人工智能系统 。
首先,面对人工智能,公开信是老套路了 。2015年1月,霍金(Stephen Hawking)和马斯克及数十位人工智能专家就签署过一封关于人工智能的公开信,呼吁对人工智能的社会影响进行研究,并阻止研究人员创造出不安全或无法控制的系统 。2018 年,组织这一次公开信的生命未来研究所(Future of Life Institute,FLI)还起草过另外一封信,呼吁制定“针对致命自主武器的法律”,签署人当中也有马斯克 。
其次,对签名者的名单要谨慎对待,因为有报道称某些名字被添加到名单里是恶作剧,例如OpenAI首席执行官山姆·阿尔特曼(Sam Altman)也曾短暂地现身其中 。有些签署者明确表示并不同意公开信的所有内容,只是因为“传达的精神是对的”而表示支持 。当然,更多的人工智能研究者和专家公开表示不同意这封信的提议和方法 。
文章插图
信中提到了对错误信息传播、劳动力市场自动化风险以及文明失控的可能性的担忧 。以下是要点:
1、失控的人工智能
各家公司正在竞相开发先进的人工智能技术,连创造者都无法“理解、预测或可靠地控制” 。信中写道:“我们必须问自己:我们应该让机器用宣传和不真实的东西充斥我们的信息渠道吗?我们是否应该把所有的工作都自动化,包括那些有成就感的工作?我们是否应该开发非人类的大脑,使其最终在数量上超过我们,在智慧上胜过我们,淘汰并取代我们?我们是否应该冒失去对我们文明控制的风险?这些决定绝不能委托给未经选举的技术领袖 。只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发 。”
2、危险的竞赛
这封信警告说,人工智能公司陷入了“开发和部署”新的先进系统的“失控竞赛” 。最近几个月,OpenAI 的ChatGPT的病毒式流行似乎促使其他公司加速发布自己的 AI 产品 。
公开信敦促企业收获“人工智能之夏”的回报,同时让社会有机会适应新技术,而不是匆忙进入“毫无准备的秋天” 。
3、六个月的暂停期
信中说,暂停开发将为人工智能系统引入“共享安全协议”提供时间 。信中还称,“如果无法快速实施这样的暂停,政府应该介入并制定暂停期” 。
公开信表示,暂停应该是从围绕先进技术的“危险竞赛”中后退一步,而不是完全停止通用人工智能(Artificial general intelligence,AGI)的开发 。
一些支持FLI的人认为,研究人员正处于不知不中创造出危险的、有知觉的人工智能系统的边缘,就像在《黑客帝国》和《终结者》等流行的科幻电影系列中看到的那样 。更加激进的人士如埃利泽·尤德科夫斯基(Eliezer Yudkowsky)认为,应该无限期暂停新的大规模训练,而且是在全世界范围内暂停 。“关闭所有的大型GPU集群(大型计算机农场,最强大的人工智能在这里得到完善) 。关闭所有的大型训练运行 。对任何人在训练人工智能系统时被允许使用的计算能力设置上限,并在未来几年内将其下调,以补偿更有效的训练算法 。立即制定多国协议,防止被禁止的活动转移到其他地方 。”
文章插图
而激烈反对的人甚至失去了礼貌破口大骂 。我认识的纽约城市大学新闻学教授杰夫·贾维斯(Jeff Jarvis)一扫往常心目中的温文印象,在推特上发帖说:“这真XX的可笑,如果我见过的话, 这是#道德恐慌#的一个典型标本:呼吁暂停训练人工智能 。谷登堡:停止你的印刷机! 有这么多疑为道德企业家和注意力成瘾者的人士签名 。”
公平地说,虽然业界绝不会同意暂停六个月,但人工智能发展眼下的发展将速度置于安全之上,的确需要引发社会关注 。我认为我们需要敲响尽可能多的警钟,以唤醒监管者、政策制定者和行业领导者 。在其他情形下,微妙的警告可能就足够了,但语言模型技术进入市场的速度比此前人们经历过的任何技术都要快 。放缓一下脚步,思考一下前路,对社会适应新的人工智能技术是必要的 。
推荐阅读
- 哪些情况下对于犯罪可以不追究责任?
- mysql中的高级连接查询
- 2023年优秀编程语言趋势
- 香椿是催乳还是回奶
- 瑾五行属什么(瑜字五行属什么)
- 公摊是什么意思(公摊面积有哪些)
- 摩托车用什么机油好(摩托车夏天用什么机油)
- 读大专学什么专业好(女生读大专学什么专业好就业)
- 贷款申请入口(私人快速借5万)
- 装修什么是全包(家庭装修全包包括什么)