不用AI搞仙人跳的黑产没有梦想( 二 )

不用AI搞仙人跳的黑产没有梦想

(腾讯内容风控技术分析) 业内经典的文本分类算法 , 大概三种 。 TextCNN、RNN、FastText 。 其中文本攻击的特点是 , 短时间高频录入 , 使用顺序调整(汉字的序顺并不定一能影阅响读 , 你仔细看看) , 以及使用大量的异型符号来曲线传达垃圾信息 。 在这种场景下 , 最适合的是方案TextCNN , 因为对顺序不敏感 , 抗干扰强 , 且结构简单 , 推理速度快 , 你不能让用户等待几个小时才发内容 , 这样业务也不用做了 。 但与此同时 , 还要做针对性训练 。 1.基于字符、拼音的Word2Vec来解决同音字问题 , 汉字穷举不可能 , 但是拼音穷举还是简单的 。 2.提升抗干扰能力使用高频字做拆字 , 例如【威信】中的2个字 , 拆成2个单一字作为变量来做核验 。 例如只要出现【信】这个字的内容 , 都要走二级策略 。 3.模型训练增加额外的场景变量 , 同样一个词 , 【死鬼】 , 我妈说我是死鬼和我妈说我爸是死鬼就是完全不同的场景 。 所以在设计模型策略的时候 , 必然要有场景这个概念 。 很多模型不好使的关键节点就是没有场景概念 , 导致很多数据结果其实是过拟合的 。 4 讲完文本讲图片 。 图片面临战主要打击场景是色情低俗类 。 由于图片是存在暗示的 , 并且图片的要素是要远远多于文字的 , 而且图片本身的敏感点也是隐蔽的 , 单纯使用简单的过滤方法是不行的 。 很简单的道理 , 你要过滤胸部 , 只用白 , 圆等特征 , 可能馒头也完犊子了 。 目前针对图片 , 应用最广的还是图像分类/目标检测算法+关键要素识别 。

不用AI搞仙人跳的黑产没有梦想

(腾讯云 , 图片风险内容识别技术原理) 想想看 , 人是怎么认识猫的? 其实就通过猫的脸部特征 , 例如鼻子到眼睛的距离 , 双眼的间隔 , 尾巴的长度 , 耳朵的形状 , 皮肤的颜色等等等等一系列方法 , 人知道 , 这种形态的生物 , 叫做猫 。 同理 , 人脑是怎么识别色情图片的? 就是色情图片上有大量的关键要素 , 这些要素 , 才是核心 , 其他内容都是无关紧要的 。 例如下图 , 一个穿白色衣服的性感照 , 颜色 , 背景都不重要 , 重要的是核心暴露的要素 。

不用AI搞仙人跳的黑产没有梦想

(人类真的是很会找重点的生物) 你会本能性的关注亮点 , 这个亮点 , 就是关键要素 。 在模型上 , 就是要用Attention让模型更加关注特定要素 , 例如上图的热力区域 , 就是所谓【漏沟】要素 。

不用AI搞仙人跳的黑产没有梦想

(腾讯云 , 图片风险防范技术原理) 当然 , 要让机器认识到这种要素 , 最重要的就是教给机器何为【漏沟】 。 就和人认识猫一样 , 机器认识【漏沟】这个概念 , 也是需要比对大量的要素 , 例如衣服和皮肤的色差 , 缝隙和皮肤的间隔 , 颜色分布和背景的比对 , 这些要素需要打上标签 , 让机器分辨 。 最前沿的做法是 , 设置ignore label抑制高频标签 , 降Loss反向传播权值 , 可以有效提升低频标签召回率提升 , 进而提升整体的识别效果 。

不用AI搞仙人跳的黑产没有梦想

(腾讯天御模型效果 , 黄图克星) 5 讲完图片讲视频和音频 。 视频鉴别其实主要难度在于效率 。 视频可以简单理解为是大量高速闪动的图片 , 一个1分钟的视频 , 如果是24帧标准电影画质 , 可以拆解为60(秒)X24=1440张图片 。 如果是60帧画质 , 可以拆解为60秒X60=3600张图片 。 所以视频核验本质上就是高效率的图片核验 。 那么问题来了 , 一个1分钟的视频 , 就要核验这么多的图片 , 那么如果要核验很多视频 , 基本上所有的服务器什么事情都不用做了 , 尤其是直播领域 , 都是实时的 。 所以视频检测的核心点就是交给机器如何合理的偷懒 。 3600张照片 , 不需要每张都看 , 实际上人的眼睛也看不出每张的区别 , 只要做算法抽帧就可以了 , 3600张照片里 , 只需要抽100到200张匹配就可以了 。 至于选取哪200张 , 这就是模型的艺术了 。

不用AI搞仙人跳的黑产没有梦想

(腾讯云:天御内容风控) 音频同理 。 如果说视频是动态的图片 , 那么音频本质上就是动态的文字 。 人的大脑处理音频的方式其实就是把声音转化成文字 , 然后大脑识别文字 , 然后再通过文字脑补画面 。 当然 , 讲骚话其实不是音频处理的真正场景 , 真的场景是娇喘等色情应用 。 处理色情音频也是这样的 。 1.VAD 做静音检测 , 去掉静音内容 , 给长度减肥 , 同时将音频分段 。 2.然后检测音频特征 , 提取音频特征 MFCC/Fbank , 往往娇喘是有特定频段 , 特定内容的 , 因为人的大脑能接收到的频段和频率是有限的 , 啊啊啊啊啊和来大兄弟你愁啥 , 明显会有不同的效果 。 3.然后做特征工程 , 把监测到的素材生成标签 , 基于GMM或者TDNN 。 4.然后把特征和色情样板进行比对 , 输出一堆结果字段 。 5.最后把结果字段通过算法来输出可疑分数 , 和文字内容 6.文字内容做模型比对 , 可疑分数依据策略来cut off 。


推荐阅读