|当年轻人开始谈论AI伦理( 二 )


当然 , 算法的“偏见”并不缺少合理的解释 。
一种说法是将机器学习结果的偏见归咎于数据集偏见 , 而非算法偏见的“技术中立” 。 比较知名的支持者就有被称作“卷积神经网络之父”的杨立昆 , 比较常见的论证是:如果某人持菜刀砍了人 , 难道是菜刀厂商甚至“菜刀本刀”的错?
另一种解释是数据量太小 , 当算法学习的数据量越大时 , 算法的错误会越少 , 而且结果会越趋向于精准 。 即使可以开发出一套筛选系统 , 将不带偏见的数据输入给算法 , 也无法达到绝对的公平 。 毕竟“主流”永远拥有更多的数据 , 算法最终会偏向于大多数 , 对“非主流”产生所谓的歧视现象 。
两种说法其实讲了一个相同的道理:计算机领域有个著名的缩写是GIGO , 即Garbage in, Garbage Out 。 翻译成中文的意思是 , 如果输入的是垃圾数据 , 那么输出的也将是垃圾的结果 。 算法就像是现实世界的镜子 , 可以折射出社会中人们意识到或者无意识的偏见 , 如果整个社会对某个话题有偏见 , 算法输出结果自然是有歧视的 。
德国哲学家雅斯贝尔斯曾在《原子弹与人类的未来》写道:“技术本身既非善 , 亦非恶 , 但它既可以用于善 , 也可以用于恶 。 它本身不包含任何观念:既不包含完美的观念 , 也不包含毁灭的邪恶观念;它们都有别的源头——在人类自身之中 。 ”
也就是说 , 算法歧视的根源其实在于人性的偏见 , “算法中立”之流的观点本质上是对人性偏见的掩饰 , 也恰恰是人工智能让人恐惧的地方。
任何一项技术的出现 , 都有“工具性”和“目的性”两个维度 , 选择权其实留给了人类自身 。 然而人性往往经不起考验 , 无法想象当“工具”交到人们手中又缺少节制的时候 , 将会做出多大的恶 。
就像“小苏”在视频中提到的DeepFake算法 , 2017年亮相时就引起了巨大的轰动 , 一位名为Deepfakes的用户将神奇女侠扮演者盖尔·加朵的脸换到了一部成人电影女主角身上 , 以假乱真的效果引发了巨大的争议 。
由于DeepFake算法的出现 , 原本只有专业电影制作机构才能完成的任务 , 普通人经过一段时间的学习也能掌握 , 就像是一头冲出笼子的野兽:加蓬总统Ali Bongo利用DeepFake合成的新年致辞 , 意外引发了军方的兵变;有人用DeepFake合成马来西亚经济部长与男性在一起的视频 , 给政府造成了不小的烦恼;在世界上无数隐蔽的角落里 , 有人利用DeepFake进行欺诈勒索……
在这个“算法无处不在”的世界里 , 我们该如何自处?
03 把野兽关进铁笼子里
作为新时代的“火种” , 我们可能无法拒绝人工智能 。
因为人工智能的应用 , 质检线上的工人无须再盯着强光下的产品用眼睛寻找瑕疵;因为人工智能的应用 , 基层的医生也可以根据病人的检查结果做出准确的病情判断;因为人工智能的应用 , 一群不会输入法的老年人也能用语音走进互联网世界……
不过一切美好的前提在于 , 先将野兽关进铁笼子里 。
或许可以借用《****》在评论“快播案”时的观点:技术不但必然负荷价值 , 而且还有伦理上“应当”负荷的“良善”价值:维持法律与习俗的稳定 , 远离破坏和颠覆 。 一旦违逆了这条原则 , 任何技术都将被打上可耻的烙印 。
言外之意 , 技术不应该是独立于现实的乌托邦 , 科技的崛起离不开必要的监管 , 在法律法规上划清技术应用的边界 , 为技术中立套上伦理的枷锁 , 可以说是人工智能技术行稳致远的前提所在 。
同时越来越多的学者也在讨论代码与法律之间的关系 , 担忧算法会不会动摇现有人类社会法律的基本框架 , 并提出了“算法规制”的概念 , 一种以算法决策为手段的规制治理体系 , 可以理解为利于算法治理的工具 。
而除了这些防御性的机制 , 或许还存在另外一种可能:对算法开发者进行适当的“AI伦理”教育 , 确定一些算法的“基本准则” , 就像“机器人永不能伤害人类”的铁律一样 , 从源头杜绝算法的滥用 。


推荐阅读