特朗普被惹怒:Facebook等社交平台极端主义言论盛行,「打标签」是否必要?

科技观潮techsina
与浪同行
特朗普被惹怒:Facebook等社交平台极端主义言论盛行,「打标签」是否必要?
文章图片
【特朗普被惹怒:Facebook等社交平台极端主义言论盛行,「打标签」是否必要?】Facebook被设计成一个公开讨论的场所 , 人性导致了这些讨论往往会激烈和两极分化 , 而Facebook选择了相对宽松的方式来管理这种分化 。 因为高管们认为 , 世界受益于喧闹的、几乎不受限制的讨论 , 也因为他们不相信这些讨论正在分裂国家 。
出品/新浪科技 ID:techsina

编译 / 李明

据外媒报道 , 正是Facebook自家的算法推荐才导致Facebook平台上极端主义内容的盛行 , 而Facebook高管自2016年就了解此事 , 但并未采取有力的措施 。

《华尔街日报》本周二发表了一篇文章 , 报道了Facebook自2016年以来抗击极端化的努力 。 这篇报道基于Facebook内部文件 , 以及对现任和前任员工的采访 , 详细地描述了Facebook是如何通过各种途径来阻止平台上分裂内容的传播 。 但在许多情况下 , Facebook却拒绝了致力于解决该问题的员工们的建议 。

文章称 , 在Facebook上加入极端组织的人群中 , 超过60%是因为Facebook的算法推荐所导致 , 包括高级副总裁乔尔·卡普兰( Joel Kaplan)在内的Facebook高管自2016年就知道该问题 , 但却扼杀了解决这一问题的努力 。

文章指出 , Facebook在2016年进行了一项研究 , 发现该平台上的极端主义内容和团体的比例高得令人担忧 。 Facebook研究员兼社会学家莫妮卡·李(Monica Lee)当时在一次演讲中称 , 超过1/3的德国大型政治Facebook群组存在大量极端主义和种族主义内容 。

莫妮卡·李还发现 , 当Facebook用户加入极端主义组织时 , 近2/3(64%)的时间是由Facebook的算法推荐的 , 这意味着该网站自己的推荐系统在社交媒体用户中“加剧了极端主义问题” 。


文章写道:
Facebook在2018年的一张幻灯片上写道:“我们的算法利用了人脑对分裂的吸引力 , 如果任其发展 , Facebook将向用户提供越来越多的分裂内容 , 以努力获得用户的关注 , 并增加在平台上的停留时间 。 ”

解决这种极端化问题是非常困难的 , 需要Facebook重新考虑其一些核心产品 。 其中最值得关注的是 , 该项目迫使Facebook考虑如何确定“用户参与度”的优先顺序 。 “用户参与度”是一项涉及停留时间、点赞、分享和评论的指标 , 多年来一直是其系统的指路明灯 。

对于上述描述 , 首先要说的是 , “极端化”可能意味着很多事情 , 这可能会让关于Facebook在这个问题上的贡献的讨论变得困难 。 从狭义上讲 , 可以谈论充满党派情绪的新闻推送(news feed)可能会导致国家分裂的方式 。 同时 , 也可以将其作为一个笼统的术语 , 来谈论Facebook和其他社交网络最近所称的“平台完整性”相关的举措 , 例如 , 消除仇恨言论 , 或者给错误信息贴上标签 。

关于“极端化”要说的第二件事是 , 虽然它有很多负面影响 , 但需要考虑的是 , 你提出的替代方案是什么 。 如果你是一家科技公司的CEO , 那么这个问题就会涉及到“对抗”极端化的挑战:即使你把它视为敌人 , 也不清楚你会用什么标准来团结你的公司来应对它 。


推荐阅读