社交媒体要怎么做UGC内容风控?


社交媒体要怎么做UGC内容风控?

文章插图
图片来源@Unsplash
文|吴怼怼
早年,Facebook曾联合部分知名高校的学者做过一项研究:以689003名用户的好友动态信息流作为研究样本,通过修改信息分发的算法,人为区分出消极情绪偏向或积极情绪偏向的内容,强方向性地给研究样本中的用户进行曝光 。
研究结果表明,获取更多消极倾诉偏向的用户,在发布动态等行为上也更偏向消极情绪,反之亦然 。有的研究者把这种现象称之为“情绪蔓延”,简而言之,在社交媒体上你给人们曝光什么,人们的心智也会随之发生改变 。
由此可见,社交媒体的影响力早已超出普罗大众的普遍认识,这些基于社会化网络的内容生产与交换平台早已在经意或不经意间给我们带来了深远的影响 。
著名的《连线》杂志创始主编凯文·凯利在其成名作《失控》中曾表明一个犀利的观点,他认为人类历史曾经发生四次认知颠覆,其中就包含了来自弗洛伊德的研究理论:我们的意志不是一个独立的个体,它其实是多股意见和不同意识的综合体,实际上我们连自己的意识都不能完全主宰 。
所以也不难理解,为什么全球范围内的社交媒体在内容管控上都在走向强干预 。在信息爆炸的今天,如果社交媒体的内容走向过度倾向负面,那么集体意识走向失控的风险就会无比放大 。
 
不同媒介的机器辅助审核随着市场与行业的升级,社交媒体中信息传播的媒介与形式呈现了多样化、创新性的发展趋势 。视频、音频媒介的广泛流行给内容审核工作带来了新的挑战,直播、去中心化的UGC内容相对以热门推荐算法主导的资讯流又有更高的即时性要求 。
不过,得益于人工智能及算法技术近年来的迅猛发展,利用机器,互联网行业已经发展出基于不同媒介维度的辅助解决方案 。
文本内容:最基础的处理工作是匹配词库进行分类处理,现有的词库按风险严重程度可以划分为涉政词与敏感词两大分类 。尤其可能涉及政治违规的关键词需要严格进行处理,而敏感词中除了明确公众普遍不可接受的词汇外还有大量在不同场景下有不同语义的敏感词,如果完全统一处理就很容易给用户带来体验损害 。
举个例子,“约”一词就需要根据其实际的词汇组合以及语境来进行判断,“明天去看电影,约吗?”就不是需要处罚的语句 。在此基础上就衍生出利于上下文内容判定语义的语义分析,以及根据聚类分析判断与垃圾文本的相似性的结果判定 。
图片内容:机器对图片类型的内容审核,其底层是图片识别的技术应用 。所有的物品图像都有它的图形特征,图片识别则可以以其基础特征为基础进行判断 。以足球为例,其球状圆形球形以及遍布五边形的图案就构成了其基础特征,图片识别通过算法提取图像的特征值,计算特征值的相似度匹配物品图像原型 。
以此为基础逻辑,图片内容的各个场景得以被辨识并应用到内容审核中,比如下图以网易易盾的图片检测的产品介绍为例示意其应用场景 。
社交媒体要怎么做UGC内容风控?

文章插图
(网易易盾的图片识别应用场景)
音频内容:音频内容审查包括音频与视频两个类型媒介的内容提取 。音频识别的技术基础建立在以声学模型建立的发音模版,通过匹配发音模版判断出语种和对应表义,输出可被计算机理解的语言结果 。
在内容审核应用上,一种通用方法是将语音识别为文本信息后复用文本内容的判断模型 。在语音识别中,面临音频背景音嘈杂的场景还需要进行降噪,而多音轨发音场景下要实现准确识别也是一大难题 。
视频内容:视频动画的实现终究是基于画面帧的连续播放,故对于视频画面内容的处理,目前通用的解决方案是截取画面帧进行识别,最终复用的是图片识别模型判断涉黄、暴力、血腥等违禁内容 。一个仅仅几分钟视频所拥有的图片帧数量极多,其中截帧的频次越高,数量越多,该视频出现违禁内容的风险越小 。
可见,以上几种不同媒介的机器审核目前于业界已经有基础方案 。但实际应用可是复杂多样,机器审核无法完全解决诸如多音轨语音、完整图案干扰、文本植入变异敏感词、视频“闪现”违禁内容等场景的问题,其终究起到的是辅助审核的作用 。根本逻辑即是通过机器审核剔除明确违规的内容,剩下的内容最终交由人工审核判定分发 。


推荐阅读