cnBeta|YouTube找回了更多的人类版主,在AI系统被发现容易审查过度后

【cnBeta|YouTube找回了更多的人类版主,在AI系统被发现容易审查过度后】YouTube表示 , 它正在将人类版主带回来 , 这些版主在大流行期间曾被"下线" , 这么做的原因是因为该公司的人工智能过滤器无法匹配他们的准确性 。 早在3月份 , YouTube就表示 , 公司将更多地依靠机器学习系统来标记和删除违反其政策的内容 , 比如仇恨言论和错误信息 。 但YouTube本周告诉《金融时报》 , 更多使用人工智能节制导致视频被错误删除和拒绝通过的情况大幅增加 。
cnBeta|YouTube找回了更多的人类版主,在AI系统被发现容易审查过度后
文章图片
4月至6月期间 , 约有1100万个视频被从YouTube上删除 , 约为平时的两倍 。 其中约有32万条被移除的视频被上诉 , 而上诉的视频中有一半被恢复 , 这种出错率大约是平时的两倍:这表明人工智能系统在试图发现有害内容时过于热心 。
YouTube的首席产品官NealMohan表示 , 做出的决定的原因无法找到像人类一样足够精确的机器时 , 我们要站在确保我们的用户受到保护的一边 , 尽管这可能会导致更多的视频被删除 。
这种承认失败的态度值得注意 。 从Twitter到Facebook再到YouTube , 所有主要的在线社交平台都面临着越来越大的压力以应对仇恨和误导性内容在其网站上的传播 。 而所有的公司都曾表示 , 算法和自动过滤器可以帮助应对其平台的巨大规模 。
不过 , 人工智能和判断与控制方面的专家一次又一次地对这些说法表示怀疑 。 他们说 , 判断一个关于比如阴谋论的视频是否包含对种族主义信仰的微妙暗示 , 对人类来说是一个挑战 , 计算机缺乏我们理解这些说法的确切文化背景和细微差别的能力 。 自动系统可以发现最明显的违规者 , 这无疑是有用的 , 但更细微的判断仍然需要人类 。
即使是更直接的决策 , 机器也会出错 。 例如 , 早在5月YouTube就承认 , 系统会自动删除包含某些批评某些政治团体短语的评论 , 该公司后来将这些错误归咎于"我们的执行系统出现了错误" 。
但是 , 机器学习系统绝对有其用武之地 , 即使只是用于删除最明显的违规者 。 "在这1100万个视频中 , 有超过50%的视频在没有被实际的YouTube用户浏览过的情况下被删除 , 超过80%的视频在浏览量少于10次的情况下被删除 , 所以这就是机器的力量 。


    推荐阅读