谷歌对内部论文进行“敏感问题”审查!讲坏话的不许发


谷歌对内部论文进行“敏感问题”审查!讲坏话的不许发文章插图
智东西(公众号:zhidxcom)
编译 | 林卓玮
编辑 | 江心白
智东西12月29日消息 , 据路透社报道 , 谷歌今年多次对内部科学家论文进行“敏感问题”审查(Sensitive Topics Review) , 曾至少三次让论文作者修改关于谷歌技术的负面论述 。
按照这项审查制度的要求 , 研究者需事先咨询法律、政策和公关团队 , 才能开展特定主题的研究 。 这些研究主题主要包括:人脸分析、情绪分析、种族、性别、政治议题 。
据知情人透露 , 这项政策从今年6月起开始施行 。 谷歌内网上写道:“随着技术不断进步、外部环境愈加复杂 , 一些看似温和的文章却引起了声誉、监管甚至法律方面的问题 。 ”
谷歌方面目前拒绝置评 。
一、谷歌内部矛盾频发前段时间 , 谷歌前人工智能伦理学者Timnit Gebru被开除的消息闹得沸沸扬扬 。 离职前 , 师从知名学者李飞飞的Gebru在谷歌带领一支由12人组成的研究团队 , 她因拒绝撤回一篇论文而遭到辞退 。
谷歌对内部论文进行“敏感问题”审查!讲坏话的不许发文章插图
谷歌前人工智能伦理学者Timnit Gebru
Gebru在这篇论文中指出 , 谷歌的大语言模型可能会加剧少数群体的边缘化问题 。 谷歌审查文章后 , 要求Gebru删除和谷歌相关的内容但遭拒绝 。 目前尚不知晓这篇论文是否经过了“敏感问题”审查 。
至此 , 谷歌公司和员工之间的种种矛盾彻底暴露在公众视线之下 。
谷歌内网显示 , 谷歌服务中存在的偏见属于“敏感问题” , 同时石油行业、中国、伊朗、以色列、新型冠状病毒、家庭安全、保险、位置信息、宗教、自动驾驶车辆、可自动推荐或个性化定制网页内容的电信服务或系统等十余个主题均被列入“敏感问题” 。
【谷歌对内部论文进行“敏感问题”审查!讲坏话的不许发】“谷歌已经开始干涉探索科技危害的关键研究 。 ”高级科学家Margaret Mitchell等四名谷歌研究员表态 , 并补充道:“如果我们依据各自专长进行合理研究 , 但因为一些和高质量同行评审要求相悖的原因 , 而被禁止发表研究成果 , 那么审核监管问题就很严重了 。 ”
二、人工智能伦理成近年研究热点近年来 , 谷歌将人工智能技术用于提升旗下各项品牌服务 。 在谷歌搜索中 , 人工智能技术被用来理解复杂的搜索条目;在Youtube视频服务中 , 该技术被用于优化首页内容推荐;在Gmail邮箱服务中 , 该技术则被用来自动补全语句 。
随着技术的迅速发展 , 当局也加快了规则制定的步伐 , 但规则还难以赶上技术的脚步 。 出于担忧 , 许多业内人士表达了对技术发展的审慎态度 。 谷歌员工便是其中一股力量 。
谷歌官网写道:“内部科学家享有‘极大’的自由 。 ”
谷歌高级副总裁Jeff Dean称 , 仅去年一年 , 谷歌科研团队就发表了200余篇有关人工智能伦理的文章 , 相关项目超1000项 。
三、“技术宅天堂”谷歌自由不再?谷歌人工智能伦理研究的步伐近来却逐渐慢了下来 。
上周 , 一名刚刚发表论文的谷歌研究员抱怨说论文审查流程太过“繁琐” 。 从内部通信记录来看 , 其与审查官的往来邮件多达100多封 。
在论文初稿中 , 这名研究员提出人工智能有时会不慎泄露个人信息和受版权保护的材料 , 因此存在违反版权保护法和欧洲隐私法的风险 。
经论文审查后 , 该作者删除了提及法律风险的这部分内容 , 而后谷歌才正式发布论文 。
无独有偶 。 本月 , 在谷歌审查官的要求下 , 一位研究员修改了所著的有关人工智能外语理解能力的论文 , 弱化了谷歌翻译发生误译的相关论述 。
据了解 , 在部分案例中 , 谷歌高管直到论文发布前才开始插手 。 比如 , 有一篇研究内容推荐技术的论文定于今夏发布 , 一名谷歌高级经理直到发布前才针对文章提出审核建议 , 要求作者“努力让文章看起来正面一些 。 ”


推荐阅读