谷歌道歉!彻查AI伦理专家被解雇一事
文章插图
智东西(公众号:zhidxcom)
作者 | 林卓玮
编辑 | Panken
智东西12月13日消息 , 深陷“解雇门”的谷歌CEO皮查伊(Sundar Pichai)于本周三正式发文道歉 , 表示在谷歌AI伦理团队负责人Timnit Gebru一事上的处理方式“在公司内部播下了质疑的种子 , 引起了部分员工对公司信念的动摇” , 并承诺将立马就Timnit Gebru被解雇一事发起调查 。
此前 , Timnit Gebru团队所著的一篇AI伦理相关的论文在审稿过程中遭谷歌撤稿 , Gebru要求谷歌高层出面解释无果后 , 发送多封内部邮件 , 文字直指公司内部存在性别、族裔多样性问题 。 谷歌获悉后 , 以“Gebru行为不符合高管标准”为由辞退了她 。
就在皮查伊发文道歉的前一天 , 在谷歌面向深肤色员工召开的会议上 , 事件相关方AI负责人Jeff Dean和副总裁Megan Kacholia还进行了简短发言 , 期间不断合理化谷歌的解雇决定 , 且不接受员工直接提问 。 知情人士透露 , 一些人表示想要辞职 。
针对皮查伊的道歉 , 被解雇员工Gebru表示不会接受 , 并在推特上写道:“他口中的「在公司内部播下了质疑的种子 , 导致部分员工开始质疑自己在公司的地位」意思无异于「很抱歉事情变成这样 , 但我们并不为发生在Gebru身上的事感到抱歉」 。 ”
文章插图
Timnit Gebru在推特拒绝谷歌CEO Sundar Pichai的道歉
一、Timnit Gebru是谁?一位高学历的平权活跃分子此次事件的主人公Timnit Gebru是一名著名的AI伦理研究员 , 博士毕业于斯坦福大学 , 师从人工智能领域知名学者李飞飞 。
去年 , Gebru加入谷歌 , 担任AI伦理团队联合负责人一职 , 在职期间 , Gebru一直对谷歌存在的种族、性别多样性问题直言不讳 。
Gebru常年活跃于科技领域的黑人和女性平权运动 , 是黑人平权倡议团体Black in AI的创始人之一 。
2018年 , Gebru曾发表了一项影响深远的研究成果 , 该研究显示IBM和微软的面部识别软件在识别黑人女性时误差率高达35% , 而识别白人男性时误差率几乎为零 。
而这次解雇风波的“元凶”竟然也是一篇论文 。
二、都是论文惹的祸美国时间12月2日 , Gebru在推特发文称 , 在向谷歌内部团体Brain Women and Allies发送一封邮件之后 , 尚在休假的她遭到了谷歌的不正当解雇 , 企业账户也被禁用 。
文章插图
Timnit Gebru称遭谷歌解雇时正在休假
谷歌员工抗议团体Google Walkout For Real Change质疑该决定的合理性并发起请愿 , 超两千名谷歌员工、三千名业内专家签署请愿书 。
这场纷争最先开始于一篇名为《随机鹦鹉之险:语言模型会太大吗?(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?)》的论文 , 这篇论文从环保和成本角度、种族和性别方面探讨了大型语言模型带来的一些风险 。 作者指出 , 现有数据仅能代表有能力上网的社会优势群体 , 如不加区分地使用这些数据训练人工智能 , 会进一步加剧偏见以及少数群体的边缘化程度 。
而大型语言模型正是谷歌众多关键技术的基础 。 2018年 , 谷歌推出的BERT语言模型在人工智能领域引起轰动 , 这项技术目前已广泛运用到谷歌搜索引擎的训练上 。
这篇论文由时任谷歌AI伦理研究员的Timnit Gebru、华盛顿大学计算语言学终身教授Emily M. Bender等七人一同完成 , 除Gebru外 , 有四名作者均为谷歌员工 。
按照计划 , 这篇文章将投递至明年举行的FAT学会上(ACM Conference on Fairness, Accountability, and Transparency) 。 然而 , 谷歌高层以递交不符合审稿规范、文章存在缺陷为理由 , 要求作者团队撤回论文 , 或者至少隐去作者的谷歌员工身份 。
推荐阅读
- 谷歌浏览器拟禁用第三方Cookies 遭英国反垄断调查
- 谷歌建立新AI系统 可开发甜品配方
- 鸿蒙获欧企力挺!华为的大时代将到来,谷歌身上重现诺基亚的影子
- 谷歌新款Nest Hub或能追踪睡眠 但外媒提出诸多疑问
- “全能神”开发谷歌应用APP传播邪教教义
- 谷歌“跨年夜”Doodle带大家一起倒计时
- 谷歌推出新版Pixel 4a 5G:骁龙765G芯/卖3200元
- FTC委员称苹果、谷歌是移动游戏行业的“看门人”
- 员工|美国科技大公司中罕见成立工会,谷歌:会直接和员工谈
- 谷歌修复Pixel 5系统音量问题 快门音效不再吵