胡泳:对于AI大模型,我们真正应该担心什么?( 三 )

公开信提到“人工智能将引起的戏剧性的经济和政治混乱”,实际上,人工智能并不会引发这一切,技术背后的企业和风险投资公司却会 。它们希望尽可能地赚取更多的钱,却很少关心技术对民主和环境的影响 。危言耸听者大谈特谈人工智能造成的伤害,已经让听者觉得并不是“人”在决定部署这些东西 。
碰巧的是,OpenAI也担心人工智能的危险 。但是,该公司希望谨慎行事而不是停下来 。“我们希望成功应对巨大的风险 。在面对这些风险时,我们承认理论上看似正确的事情在实践中往往比预期的更奇怪”,阿尔特曼在 OpenAI 关于规划通用人工智能的声明中写道 。“我们相信我们必须通过部署功能较弱的技术版本来不断学习和适应,以最大限度地减少‘一次成功’的情况 。”
换句话说, OpenAI正在正确地遵循人类通常的获取新知识和开发新技术的路径——即从反复试验中学习,而不是通过超自然的先见之明“一次成功” 。这种做法是正确的,同时,把人工智能工具交给普通大众使用也是对的,因为“民主化的访问将导致更多更好的研究、分散的权力、更多的利益以及更多的人贡献新想法” 。我们只是同时也需要人工智能实验室提供关于训练数据、模型架构和训练制度的透明度,以便全社会更好地研究它们 。
微软说它是“由以人为本的道德原则驱动的”;谷歌说它将“大胆而负责任地”向前迈进;而OpenAI说它的使命是用技术“造福全人类” 。我们看到许多这样的公司推出了强大的系统,但也在某种程度上推卸责任,并且不太清楚它们将如何管理自身而成为真正的担责者 。时间会告诉我们这些宣言是否会有行动的支持,或者充其量只是聊天而已 。
胡泳:《当ChatGPT产生幻觉,一个“幻觉时代”要来临了》
王焕超:《ChatGPT时代,图灵测试已死》




推荐阅读