「」互联网公司要怎么做内容风控才更安全?

「」互联网公司要怎么做内容风控才更安全?
文章图片

文章图片

2016年 , 欧盟委员会牵头与Facebook、Twitter、YouTube和微软等互联网巨头们集体签署了一项行为准则 , 承诺“接到举报后24小时内屏蔽和删除相关仇恨言论” 。
“仇恨言论”在欧美已经是刻不容缓的互联网内容安全问题 。
2019年发生在美国、新西兰等地的公共伤害事件 , 事后都被查明凶手为种族歧视的捍卫者 , 动手之前曾在网络上分享过自己的行程与仇恨理念 。
而这只是互联网内容安全问题的冰山一角 。
「」互联网公司要怎么做内容风控才更安全?
文章图片

文章图片

互联网上与日俱增的内容不仅代表着更多的流量 , 也预示着巨大的内容风险藏身其中 。色情、毒品、旗帜、暴恐、血腥、武器等等不良、有害信息不仅危害互联网平台的内容生态 , 更可能导致安全问题 , 使业务发展遭受损失 。
不夸张的说 , 内容安全就是互联网平台的风控命门 。
过去 , 互联网公司通过增加内容审核人员规模来解决问题 , 比如2018年今日头条就曾将原有6000人的运营审核队伍扩大到10000人 , 社交巨头Facebook在全球范围内也拥有1.5万内容审核员 。
但这也引出一个实际问题 , 大厂有能力和资金可以雇佣内容审核专员 , 或者自己开发机器审核 , 而小厂呢?如何应对这颗随时可能引爆的安全“炸弹”?
人工+机器辅助 , AI内容风控了解一下
随着互联网内容愈发繁杂且海量 , 以及市场与行业升级之后 , 信息传播的媒介与形态越来越多样化 , 传统的人工审核方式已经不能从容应对内容安全危机了 。
人工审核本身有着天然缺陷 , 比如成本高、效率低、主观成分高、评判标准不统一等等 。仅成本一项就很难 , 有企业曾透露 , 一人一天审核4万条信息 , 日均100万数据 , 光审核人力成本就要200万以上 。
对企业而言 , 概括起来说就是成本高、技术难、效果差 。甚至 , 因为长期与极度负面的信息打交道 , 对审核员工的身心都会造成损伤 。
今年3月 , 3000多名内容审核员就对Facebook发起了诉讼 , 这些内容审核员要求对这份工作引发的精神损害进行经济补偿 。5月 , Facebook不得不同意向这些内容审核员支付5200万美元的和解费 。
并且 , 视频、音频等媒介形式的爆发 , 又给人工审核带来了新的挑战 。
于是近几年 , 基于算法技术和人工智能 , 互联网平台开始开发机器辅助人工审核的方式应对内容安全问题 。机器审核的一大优势就在于 , 可以应对不同媒介维度的内容审核工作 。
文本内容:最基础的处理工作是匹配词库进行分类处理 。区别于人工 , AI可以通过预设违禁词库来完成文本内容筛选 。
比如 , 百度内容审核平台就是预置违禁词库+用户自定义黑/白词库的配置 , 并根据色情、暴恐违禁、政治敏感、恶意推广等七大场景建立了黑词库和语义审核模型 , 不仅能够对敏感词和违禁词进行处理 , 也能根据上下文、语境、语义识别出违规信息 。
图像内容:机器对图片类型的内容审核 , 其底层是图片识别的技术应用 。以此为基础逻辑 , 图片内容的各个场景得以被辨识并应用到内容审核中 , 比如下图就介绍了百度内容审核平台的图像检测产品的主要功能 。
「」互联网公司要怎么做内容风控才更安全?
文章图片

文章图片

视频内容:视频内容由音频内容、视频画面两个对象组成 , 视频画面的机器审核 , 业界目前常采用截取画面帧上传识别 , 最终复用的是图片识别通道对场景、人物、物品进行判断是否违规 。


推荐阅读