AI伦理之惑:马斯克等科技大佬为何拦停GPT-5

在OpenAI的带领下,GPT一遍又一遍地冲破人们对于AI的预期 。
而在对GPT-4进行一系列实验后,微软研究团队也在报告中承认大模型背后的AI潜力:GPT-4是使用前所未有的计算和数据规模训练出来的,而除了对语言的掌握,GPT-4还能解决跨越数学、编码、视觉、医学、法律、心理学等领域的新颖而困难的任务,而不需要任何特殊的提示 。
“此外,在所有这些任务中,GPT-4的表现都惊人地接近人类水平,而且往往大大超过了ChatGPT等现有模型 。鉴于GPT-4能力的广度和深度,我们认为可以合理地将其视为通用人工智能(AGI)系统的早期(但仍不完整)版本 。”微软在研究报告中表示 。
另一边,在人们都在为AI的飞速进化而欢呼雀跃时,研究机构未来生命研究所(Future Life Institute)近日却公布了一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月 。
“我们不应该冒着失去对文明控制的风险,将决定委托给未经选举的技术领袖 。只有当确保强大的人工智能系统的效果是积极的,其风险是可控的才能继续开发 。”该机构在信中表示,而“未经选举的技术领袖”显然是在内涵占尽风光的OpenAI 。
截至目前,马斯克、苹果联合创始人Steve Wozniak和Stability AI创始人Emad Mostaque在内的诸多科技大佬和AI专家已经签署公开信,他们认为,人工智能实验室和独立专家应在暂停期间,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督 。
【AI伦理之惑:马斯克等科技大佬为何拦停GPT-5】当AI开始对齐甚至超越人类能力时,“对社会和人类构成潜在风险”就已经不再是充满科幻色彩的口号 。
潘多拉魔盒
尽管GPT-3在2020年就已推出,但直到2022年,研究人员才发现预训练大模型产生了类似人类推理思维的能力 。
当用户向语言大模型提问的时候,可以在提示问题(Prompt)里写几个示例,让模型照着例子做生成,像ChatGPT就可以根据用户演示的推理过程,来推导其它问题的答案,这种模仿人类思维的推理能力不需要再进行复杂的训练,只需要在提问时给出提示,模型就能自动学习,并做出相应推理得到正确结果 。
但问题在于,通过“喂数据”得到的AI思维能力在原理上是如何实现的,以及继续“大力出奇迹”之后,AI又会如何进化?
日前,OpenAI CEO Sam Altman公开坦诚表示,GPT系列为何会出现推理能力,OpenAI的研究者自己也搞不明白,他们只知道,在不断测试中,人们忽然发现,从ChatGPT开始,GPT系列开始出现了推理能力 。
2022年6月15日,谷歌研究院联合DeepMind和斯坦福大学发表了一篇论文:《大语言模型的突现能力》(Emergent Abilities of Large Language Models) 。研究人员惊讶发现,AI的思维能力,并不是随着模型参数大小的线性变化逐渐出现的,而是当参数规模超过某一阈值后,模型的思维能力突然涌现出来,即所谓大模型的“突现能力”(Emergent Abilities) 。
论文指出,大模型在参数规模达到某个临界值之前,其性能是近乎随机的,之后性能会忽然大幅增加,仿佛突然开窍一般,参数规模的量变导致了质变,而这种质变会何时发生,却充满不确定性,参数量级够大只是一个必要条件,一些大模型在大量“投喂”后却并没有表现出思维能力 。
“我们一般认为这个参数规模是在千亿左右,但问题在于,随着投喂量进一步扩大,模型会再突现出什么能力是无法预测的 。比如GPT-4已经能够依据命令设定自己的身份与人交流,如果再投喂下去,GPT-6或者GPT-8会不会进化到可以自行设定身份,具备自我意识甚至主动隐藏自己的某种‘价值观’?”一位NLP领域专业人士对21世纪经济报道采访人员表示 。
谨防AI危险竞赛
技术的不确定性之外,另一个担忧在于AI浪潮裹挟下,AI又会被带向何方?
在AI所带来的生产力革命以及颠覆传统人机交互模式的巨大想象力下,微软“梭哈”OpenAI;落后一步的谷歌越挫越勇、紧追不舍;赌对了的英伟达高喊“AI的iphone时刻”;国内大小科技厂商更是直接将大模型奉为“政治正确”……
在这样新一轮疯狂的AI竞赛中,科技公司争抢新时代的船票,无疑都希望用更短的时间开发和部署更强大的AI,而这个过程中,是否会裹挟更多疯狂,加剧未来AI技术进化的不确定性 。一个看上去不那么妙的信号是,大型科技公司在不断提高对AI投入的同时,却又一直在裁减致力于评估部署AI相关伦理问题的团队员工 。


推荐阅读