『Facebook』内容审核员,不止鉴黄( 二 )


假如没有这个职业 , 那我们的互联网环境或许会变成充斥着色情、暴力、血腥内容的世界 。
毕竟你根本不知道还有多少让人不适的东西 , 在你看到之前就被审核员们挡在了互联网世界的大门外 。
所以大家能想象 , 被称为“ 网络清道夫 ”、一整天的工作都在直面色情、血腥、恐怖主义画面内容的审核员都承受了些什么吗?
可以说 , “ 内容审核 ” 在全球范围内都不再是一个陌生的概念了 。 可以说 , 几乎每一个互联网公司 , 都需要内容审核员的存在 。
去年四月的时候 , 因为播出低俗节目被约谈的快手紧急招聘了 3000 名内容审核员 。 除此之外 , 字节跳动、腾讯等每年也都在扩招大量的内容审核员 。
而国外也不例外 , 之前就有报道称 , Youtube 在 2017 年的时候就雇佣了 10000 名内容审核员 , 并下架了 15 万有关儿童猥亵的视频 。
Facebook 的外包网络审查员也一度达到了 7500 名 , 用于审核那些带有仇恨歧视的言论 。
而随着审核员的需求越来越多 , 关于内容审核员患上心理创伤的报道也越来越多 。
2018 年的时候 , 就有一部关于第三世界网络内容审核员的纪录片《 网络审核员( The Cleanser)》上映 。
而今年 , 又有脸书的前审核员因为心理创伤而将公司告上法庭 。 这个问题 , 开始逐渐出现在大众视野 , 并得到重视 。
内容审核员们之所以更容易患上应激性创伤等心理问题 , 工作内容的负能量爆棚其实是主要原因 。
其实根据不同平台和不同公司的要求 , 审核员们的工作内容其实也不太一样 。 拿脸书为例 , 脸书的内容审查员主要是按工作内容分类 。
“ 鉴黄 ” 组浏览裸体、色情内容;“ 反恐 ” 组观看斩首、电击虐待、汽车爆炸等视频;“ 自残 ” 组甚至偶尔还得盯着自杀视频直播 。
有的审查员表示 , 自己观看暴力视频的次数多到 , 自己仅仅只是看一眼尸体身上的切口就可以判断是小刀割的还是大刀砍的 。
不仅如此 , 根据他们的保密协定 , 内容审查员是不被允许和其他人讨论工作内容的 。
这就意味着 , 哪怕自己已经有了严重的心理问题 , 他们也不被允许分享 , 这使得他们的孤独感与心理创伤剧增 。
除了必须在工作中面对大量负能量以外 , 工作本身带来的压力也是一个很重要的原因 。
狐妹在招聘网站输入 “ 内容审核 ” 这几个字 , 就能看见新浪、头条、抖音、360 等平台的招聘信息跳出来 。
以新浪的内容审核岗为例 , 4-8k 不等的工资 , 工作内容就是准确迅速处理各类违法信息 , 看着是不是还挺不错的 。
但我们一般都知道 , 写在招聘启事里的信息呢 , 实际上福利一般没那么多 , 但是工作压力和要求是只会更高不会更低的 。
既然这里工作压力较大都给你标出来了 , 再加上夜班和周末值班……
因为互联网这一行业的特殊性 , 基本上是 24 小时都需要有内容审核员来进行审核的 。
而这类内容审核岗基本上是轮班制 , 比如 360 的内容审核岗就是 12 小时轮值 , 做一休一 。 工作内容的要求呢大概是一天两万条 , 包括评论、头像、文章等内容 。
其实这种压力扛一扛 , 也能扛过去 。 但你要知道啊 , 内容审核员在进行审核的时候 , 并不是像我们想象中的一样 , 觉得哪条和自己三观不符就把哪条删了 。
每个平台呢 , 都是有自己的一套审核标准的 。 据说脸书就有一个 1400 多页的手册 , 用来当审核规则的标准 。
但你想 , 每天要审核的信息数量非常大 , 而审核规则是难以清晰地界定出所有的情况的 。 而脸书的审核员们 , 却被要求审核的准确率达到百分之九十八 。


推荐阅读