对话签名支持暂停巨型AI研发的科学家:我更担心中国有太多大模型

采访、编辑丨郭晓静
视频剪辑丨吴彬
2023年3月29日 , 非营利组织未来生命研究所(Future of Life)发表一封公开信 , 呼吁暂停研发比GPT-4更强大的人工智能系统至少6个月 , 包括特斯拉CEO马斯克、Stability AI的首席执行官莫斯塔克(Emad Mostaque)等在内的1000多名该领域的专家、科技人员、产业高层都在这封公开信上签了名 , 在这封信上 ,  我们也看到了一位中国科学家的名字—曾毅(中国科学院自动化研究所人工智能伦理与治理中心主任) 。
这封公开信 , 虽无法律效力 , 但是引起了公众对人工智能治理的问题的空前关注 , 我们特别找到曾毅主任 , 问他是否方便谈一下为何在这封公开信上签名 。他回复得很果断:“肯定可以说 , 而且要说清楚 。”在对话中 , 我们也向他提了一个比较尖锐的问题:“AI领域的技术研发落后是更可怕 , 还是继续研发人工智能带来的潜在风险更可怕?”曾毅的观点很明确:“用一种竞争的视角来分析这个问题的时候就会使人不理性 , 中国目前的水平还没达到GPT-4 , 我赞同的是发展信息处理能力接近GPT-4的大模型 , 但是在伦理安全治理方面的规制与思考要远远超越GPT-4这样的大模型的研发 。”
在与曾毅的对话中 , 我们还谈及了以下问题: