[新浪科技综合]谁才是让AI产生偏见的幕后推手?新浪科技综合2020-07-15 09:56:360阅

[新浪科技综合]谁才是让AI产生偏见的幕后推手?新浪科技综合2020-07-15 09:56:360阅
文章图片
图1/2来源:科技日报
美国麻省理工学院媒体实验室研究项目显示 , 人工智能识别浅色皮肤男性的平均错误率不超过1% , 识别深色皮肤女性的平均错误率达35%……
人脸识别所导致的偏见问题一直受到广泛关注 。 近期 , 一篇关于图像超分辨率的论文引发了对于产生偏见原因的新争论 。
网友利用论文中的开源代码进行了模型推理 , 在使用时发现 , 非白人面孔的高糊照片被还原成了一张白人面孔 。 对此 , 2018年图灵奖得主、AI领军人物杨立昆(Yann LeCun)在推特上指出 , 当数据有偏见时 , 机器学习系统就变得有偏见 。 而这一观点 , 掀起一场争论浪潮 。 有人说 , 机器学习系统产生偏见不应只归咎于数据集 , 这种甩锅的做法是不公平的 , 还有技术、人类观念等原因 。
现在还没有100%无偏见的数据集
随着人工智能时代的到来 , 人脸识别技术正被越来越广泛地应用在执法、广告及其他领域 。 然而 , 这项技术在识别性别、肤色等过程中 , 存在着一定偏见 。
“在美国 , 人脸识别系统中白人男性的识别率最高 , 而黑皮肤女性的识别率则最低;在亚洲国家的人脸识别系统中黄种人的识别率相比白种人的识别率差距就会小一些 。 ”福州大学数学与计算机科学学院、福建省新媒体行业技术开发基地副主任柯逍博士说 。
这次陷入争论中心的人脸识别偏见问题其实是一个存在很久、热度很高的话题 。
早前 , 美国麻省理工学院媒体实验室主导的一项名为《Gender Shades》的研究项目在研究了各个前沿科技公司的面部识别系统后发现 , 各系统在识别男性面脸与浅色面脸方面表现更佳 , 浅色皮肤男性的平均识别错误率不超过1% , 浅色皮肤女性的平均识别错误率约为7% , 深色皮肤男性的平均识别错误率约为12% , 深色皮肤女性的平均识别错误率则高达35% 。
那么本次争议中 , 杨立昆指出的数据集问题是如何产生偏见的?有无100%没有偏见的数据集?“不均衡的数据 , 导致了系统在学习时 , 更好地拟合了比重较大的数据 , 而对占比小的数据的拟合则表现不佳 , 这就可能最终导致了偏见的产生 。 ”柯逍介绍说 , 如一个常见的人脸识别数据集LFW , 数据集中有近77%的男性 , 同时超过80%是白人 。
“目前 , 几乎可以肯定的是没有100%无偏见的数据集 。 ”柯逍举例说 , 在收集数据时 , 可以针对性地让男性与女性数目一样 , 甚至也可以让各种肤色的数据数目都一样 。 但是 , 其中可能大部分人是没有戴眼镜的 , 这可能就对戴眼镜的人进行识别时带来了偏见 。 进一步讲 , 各个年龄段的人脸也很难做到完全一致 , 导致最后学习到的模型可能对戴眼镜、年长或年幼的人脸产生偏见 。 所以有时候讨论数据偏见的产生 , 会发现其产生的原因是考虑问题的角度不同 。
出现偏见不能只归咎于数据
众多专家也指出 , 数据可能是机器学习系统中偏见的来源 , 但不是唯一的来源 。
其实 , 在本次争议中 , 杨立昆在推特中已经很明确地表示 , 他的本意并不是说问题都出在数据集上 , 只是针对这篇论文 , 其算法在特定场景下 , 换个数据集就能解决问题 , 但并不是说所有的机器学习系统偏见都来源于数据集 。
那么 , 谁才是产生偏见真正的“幕后推手”?
AI学习过程应该是架构、数据、训练算法等的相互作用 。 算法包括了特征的选择、损失函数的选择、训练方法的选择以及超参数调节等 , 其本身的缺陷也是偏见产生的一个原因 。
2019年12月 , 美国国家标准技术研究院进行的一项研究发现 , 在大多数当前评估的人脸识别算法中 , 跨人种差异确实存在广泛的准确性偏差 。
柯逍介绍说 , 在算法设计的时候 , 往往会选择L1损失函数或者L2损失函数 。 若在将一个低分辨率人脸图像还原成高分辨率人脸图像的方法中 , 使用L2损失函数 , 得到的大多数人脸图像更像白人;而使用L1损失函数 , 得到大多数人脸图像更像黑人 。 这说明由于损失函数的选择不同 , 某个群体(黑人或白人)在一定程度上就会受算法的忽视 , 进而产生偏见 。
这当中还存在另一种情况 , 假如数据带有少量的偏见 , 算法系统会将其放大 , 并变得更具有偏见 。 一项研究表明 , 如果初始数据中 , 下厨与女性的联系概率是66% , 将这些数据喂给人工智能后 , 其预测下厨与女性联系起来的概率会放大到84% 。 一般来说 , 机器学习系统会选择最符合通用情况的策略 , 然而这样会导致一些非典型情况或较为特殊情况被忽略 。
除此之外 , 产生偏见的原因还有相似性的偏见 。 信息推送系统总会向用户推荐他已经看到、检索过的相关内容 。 最终的结果是导致流向用户的信息流都是基于现存的观点和看法 。 “系统会自动帮助用户屏蔽与他们意见相左的信息 , 这就催生了一个信息泡沫 , 用户看到的都是人工智能让你看到的 。 这种偏见根本上也是数据与算法共同作用产生的 。 ”柯逍说 。
“总体而言 , 偏见还是源于规则制定者 。 ”中锐网络人工智能产品总监叶亮说 , 工程师从头到尾参与了整个系统设计 , 尤其是机器学习的目标设定 。 算法就好像一只嗅探犬 , 当工程师向它展示特定东西的气味后 , 它才能够更加精准地找到目标 。


推荐阅读