神经现实我们该如何信任它们?,AI也有偏见( 三 )


规范解释看似更加直截了当 , 但在实际应用中还没有确切实现或评估的共识 。 描述性解释似乎也不甚完美 。 时至今日 , 我们仍未整合描述性解释和规范解释 , 关于解释的研究和可解释AI还在齐头并进 。
有了可解释的AI就万事大吉吗?
2017年开始 , 美国国防高级研究计划署(DARPA)投资了一系列XAI的项目 , 包括UCLA的VCLA中心的研究项目 。 2018年 , ACM主办了第一届FAT*会议 , 关注AI系统的公正性、问责制和透明度 。 同年 , AAAI与ACM共同举办第一届AIES(人工智能、伦理与社会)会议 。 谷歌、微软等科技公司也陆续参与XAI的研发 。
各界对于XAI的关注促成了许多“拆穿”黑箱AI的尝试 , 从DeepMind提出的机器心智理论(MachineTheoryofMind) , 到将黑箱神经网络转化为“透明”的布尔电路(Booleancircuit) , 再到LIME(LocalInterpretableModel-AgnosticExplanation)等通过近似黑箱模型提取重要特征的方法 。 虽然XAI目前解释的对象主要是工程师等研发人员 , 但是在未来 , 我们将会看到更多面向大众的XAI , 比如向你解释如何开药瓶的Baxter 。
XAI并不是终点 , 它最多算一个起点 , 而我们还有许多亟待解决的问题:
首先 , 对黑箱AI的解释可以被悄无声息地篡改 , 可以完全牛头不对马嘴 , 而且很难察觉 。
哈佛大学的希玛宾度·拉卡拉朱(HimabinduLakkaraju)和她的学生们发现 , 只需在模型上动一些简单的手脚 , 就能让它滥用COMPAS数据集里的种族信息决定量刑 , 但一旦LIME来“视察” , 它立刻摆出无辜的嘴脸 , 完全不露馅 。 这就意味着 , 即使有XAI为工具 , 我们对AI的信任也不应当盲目地依赖系统的可靠性和(表面上)信息的透明性 , 理智与批判性思考将格外重要 。
神经现实我们该如何信任它们?,AI也有偏见
文章图片
其次 , 针对AI的条例的制定相对滞后于研发和应用 。
XAI的出现将会让这个问题更加复杂——由于黑箱AI难以捉摸 , 且只有少数人具备解读/修改的能力 , 研发机构不必过分担心自己的科研成果泄漏(除非算法模型被一锅端) 。 如果面向用户和公众的解释成为需求、甚至必须 , 既有的AI系统——无论透明与否——都有可能面临一系列的风险 , 包括知识产权(利用反向工程重建系统)和系统安全(恶意的对抗攻击) 。 信任与保密两者的张力之下 , XAI应当提供的解释的具体内容尚无定论 。
再者 , 偏见和不公不会因为解释本身而消失;恰恰相反 , 解释会暴露更多一直以来潜行在我们周围的伦理问题 。
【神经现实我们该如何信任它们?,AI也有偏见】ProPublica对COMPAS的调查使人不禁发出疑问:系统性的种族偏见究竟在何种程度上渗透了美国过去十年间的量刑?随着XAI的进步 , 一个个黑箱AI的庐山真面目逐渐显露在我们眼前 , 不难想象其中有像COMPAS一样的“帮凶” 。 我们能否通过公开讨论解决结构性问题、完善问责制 , 这将是对AI和人类社会共同的挑战 。


推荐阅读