AI伦理之惑:马斯克等科技大佬为何拦停GPT-5( 二 )


根据公开信息统计,微软、Meta、谷歌、亚马逊等公司都裁减了其“负责任的人工智能团队”(Responsible AI)的成员,这些团队负责为使用AI的消费产品提供安全建议 。
例如,今年1月,在微软的万人级别大裁员行动中,微软解散了其所有的伦理道德与社会团队,在加速将OpenAI的技术整合到自家商业帝国每个角落的同时,却不再设立专门的团队来确保AI原则和产品设计紧密相关 。
此前,谷歌内部也出现过关于AI技术的发展、影响和安全性之间的紧张关系,两位AI伦理研究负责人Timnit Gebru和Margaret Mitchell在与该公司爆发了一场激烈争吵后,分别于2020年和2021年离职 。
在公认机会与风险并存的情况下,科技巨头们努力发出信号,证明自己正在认真对待AI中的潜在风险 。比如在社会道德伦理团队被解散之后,微软表示仍有三个不同的团队在这个问题上开展工作 。
尽管被裁减的道德团队员工也仅有几十人,只是整个科技行业低迷而被裁掉的数万名员工中的冰山一角,在AI高速发展以及大型科技公司主导权越来越重的当下,对有责任出于安全考虑给产品开发速度踩刹车的道德团队进行任何削减,似乎都值得注意 。
公开信在最后提到,如今,我们的社会已经暂停其他可能造成灾难性影响的技术,对于人工智能也应该如此,“让我们享受一个漫长的‘AI之夏’,而不是毫无准备地进入秋天” 。




推荐阅读