其次 , 要兼顾用户指标和生态指标 。今日头条作为内容分创作平台 , 既要为内容创作者提供价值 , 让他更有尊严的创作 , 也有义务满足用户 , 这两者要平衡 。还有广告主利益也要考虑 , 这是多方博弈和平衡的过程 。
另外 , 要注意协同效应的影响 。实验中严格的流量隔离很难做到 , 要注意外部效应 。
文章插图
强大的实验平台非常直接的优点是 , 当同时在线的实验比较多时 , 可以由平台自动分配流量 , 无需人工沟通 , 并且实验结束流量立即回收 , 提高管理效率 。这能帮助公司降低分析成本 , 加快算法迭代效应 , 使整个系统的算法优化工作能够快速往前推进 。
文章插图
这是头条A/B Test实验系统的基本原理 。首先我们会做在离线状态下做好用户分桶 , 然后线上分配实验流量 , 将桶里用户打上标签 , 分给实验组 。举个例子 , 开一个10%流量的实验 , 两个实验组各5% , 一个5%是基线 , 策略和线上大盘一样 , 另外一个是新的策略 。
文章插图
实验过程中用户动作会被搜集 , 基本上是准实时 , 每小时都可以看到 。但因为小时数据有波动 , 通常是以天为时间节点来看 。动作搜集后会有日志处理、分布式统计、写入数据库 , 非常便捷 。
在这个系统下工程师只需要设置流量需求、实验时间、定义特殊过滤条件 , 自定义实验组ID 。系统可以自动生成:实验数据对比、实验数据置信度、实验结论总结以及实验优化建议 。
当然 , 只有实验平台是远远不够的 。线上实验平台只能通过数据指标变化推测用户体验的变化 , 但数据指标和用户体验存在差异 , 很多指标不能完全量化 。很多改进仍然要通过人工分析 , 重大改进需要人工评估二次确认 。
五、内容安全
最后要介绍今日头条在内容安全上的一些举措 。头条现在已经是国内最大的内容创作与分发凭条 , 必须越来越重视社会责任和行业领导者的责任 。如果1%的推荐内容出现问题 , 就会产生较大的影响 。
因此头条从创立伊始就把内容安全放在公司最高优先级队列 。成立之初 , 已经专门设有审核团队负责内容安全 。当时研发所有客户端、后端、算法的同学一共才不到40人 , 头条非常重视内容审核 。
现在 , 今日头条的内容主要来源于两部分 , 一是具有成熟内容生产能力的PGC平台 , 一是UGC用户内容 , 如问答、用户评论、微头条 。这两部分内容需要通过统一的审核机制 。如果是数量相对少的PGC内容 , 会直接进行风险审核 , 没有问题会大范围推荐 。UGC内容需要经过一个风险模型的过滤 , 有问题的会进入二次风险审核 。审核通过后 , 内容会被真正进行推荐 。这时如果收到一定量以上的评论或者举报负向反馈 , 还会再回到复审环节 , 有问题直接下架 。整个机制相对而言比较健全 , 作为行业领先者 , 在内容安全上 , 今日头条一直用最高的标准要求自己 。
分享内容识别技术主要鉴黄模型 , 谩骂模型以及低俗模型 。今日头条的低俗模型通过深度学习算法训练 , 样本库非常大 , 图片、文本同时分析 。这部分模型更注重召回率 , 准确率甚至可以牺牲一些 。谩骂模型的样本库同样超过百万 , 召回率高达95%+ , 准确率80%+ 。如果用户经常出言不讳或者不当的评论 , 我们有一些惩罚机制 。
泛低质识别涉及的情况非常多 , 像假新闻、黑稿、题文不符、标题党、内容质量低等等 , 这部分内容由机器理解是非常难的 , 需要大量反馈信息 , 包括其他样本信息比对 。目前低质模型的准确率和召回率都不是特别高 , 还需要结合人工复审 , 将阈值提高 。目前最终的召回已达到95% , 这部分其实还有非常多的工作可以做 。头条人工智能实验室李航老师目前也在和密歇根大学共建科研项目 , 设立谣言识别平台 。
推荐阅读
- 推荐算法的物以类聚人以群分
- 厉害了华为!开源自研算法Disout
- 常见加密算法 「asp.net core 系列」12 数据加密算法
- 用Python实现十大经典排序算法-插入、选择、快速、冒泡、归并等
- 基础通俗讲解集成学习算法
- 流行的机器学习算法总结,帮助你开启机器学习算法学习之旅
- 算法专家教你一致性算法:Paxos+Zab+Raft+NWR+Gossip+一致性Hash
- 什么是搜索算法?初学者的SEO:使流量增长了令人难以置信的385%
- 二叉树算法大盘点
- 掌握三个决窍让头条收益迅速增长