图片|文本转图片的危险算法“达利”降临:“造假”程度绝了( 三 )


比较有趣的是,他们还给达利设定了一个“反欺凌过滤器” 。比如,输入“一头长着羊头的猪”,系统就拒绝输出 。因为OpenAI解释,“猪”和“羊”同时出现应该触犯了过滤器设定的禁令 。
另外,关于偏见问题,为了减少对女性的伤害,OpenAI希望过滤掉所有训练数据中的“性别内容” 。但他们发现,当他们尝试过滤掉这些信息时,达利系统产生的女性图像变少了 。
因为这又触及了另一种现实世界中职场存在的局限性(有些产业和职位,女性就是很少),因而导致了另一种对女性的伤害: 抹杀 。
图片|文本转图片的危险算法“达利”降临:“造假”程度绝了
文章图片

输入文字:熊猫宝宝在银河尽头弹钢琴 。OpenAI的公开图片里,大部分都是动物,尽量避免男女性别带来的争议
但是,世界上聪明的程序员还有很多很多,可能很快就会有其他企业和国家能能够开发出类似的技术 。毕竟,人类追求技术创新的动机非常多样化,而利益是其中最大的推动力之一 。
而他们本身的人类道德感是否值得信任,这就很难说了,因为很多动机与造福人类显然是相悖离的 。
但我们又不能因此一棒子打死,全面限制人类追求算法创新的速度 。那么,就应该思考这样一个问题:
如何才能真正改变所有算法创新参与者的潜在激励结构?
但对我个人来说,只能说对技术的应用相对悲观,或者说谨慎乐观:
因为我从来不会对技术失望,但我也从来不轻易相信人性 。


推荐阅读