“算法推荐”不能成为免责的借口,侵权了怎么办?专家解答

“算法推荐”不能成为免责的借口,侵权了怎么办?专家解答
文章图片
近年来 , 一些内容聚合平台开始采用“算法推荐”模式进行精准推荐 。 这些平台用大数据分析用户的偏好 , 根据阅读习惯和浏览历史等勾画出“读者画像” , 再根据用户标签进行精准化的内容推荐 。 “算法推荐”节省了用户检索信息的时间 , 但如果不加任何过滤机制 , 很容易成为侵权作品或违法信息的传播工具 。
因此 , “算法推荐”不能成为免责的借口 , 网络服务提供者应当对推荐内容尽到一定管理或注意义务 , 不断优化算法模型 , 减少侵权作品或违法信息的传播 。
01需建立价值判断和风控模型
在很多国家 , 低俗、淫秽作品都容易获得很高的点击率 , 如果算法只是单纯根据点击率等推荐 , 而不进行内容筛选过滤 , 就会成为违法犯罪的工具 。 因此 , 不能借口是用户的违法行为 , “算法推荐”就不履行注意义务;相反 , 正是总有用户有违法行为 , 所以才要求平台履行注意义务 。 发达国家的“算法推荐”都会设置内容过滤机制 , 将暴力、恐怖等信息过滤掉 , 尤其在知识产权、未成年人保护等方面上 , 发达国家要求网络服务提供者的管理义务极高 。
需要注意 , “算法推荐”并非中立技术 。 “实质性非侵权用途标准”是“技术中立原则”的起源 , 其对侵权人的要求过于宽松、缺乏对技术应用的道德判断 , 具有很大的缺陷 , 适用范围不断限缩 。 “技术中立原则”在《中华人民共和国著作权法》中体现为“避风港原则” , 但同时为“红旗原则”限制 , 主张不考虑“红旗原则”而适用“实质性非侵权用途标准”是一种司法倒退 。 与网络传输等中立技术相比 , “算法推荐”技术的人为选择性更强 , 它是根据设计者设置的参数推荐 。 点击量、用户兴趣等推荐参数 , 都是算法设计者的人为选择 , 这与单纯无干扰的传输完全不同 。
“算法推荐”不能成为免责的借口,侵权了怎么办?专家解答
文章图片
【“算法推荐”不能成为免责的借口,侵权了怎么办?专家解答】法律鼓励技术创新但要防范新技术的风险 。 新技术可能会引发新型风险 , 因而使用者就应当尽到特别注意义务 。 自动驾驶是基于算法的新技术 , 因为其可能带来新风险 , 因此各国都要求设计者、使用者承担特别注意义务 。
在法律上 , 利益与责任同在 。 平台利用“算法推荐”更精准地将内容触达用户 , 提升了平台的核心竞争力 , 提高用户粘性及用户忠诚度 , 为平台带来高流量价值 , 平台也应履行相应的注意和管理义务 。 换言之 , 平台不能只享受技术带来的红利 , 而不防范技术引发的侵权作品传播风险 。 如果不通过对平台的归责去推动技术完善 , 那么防止侵权的风控技术永远不可能实现 。
在技术上 , 主动防范侵权作品的难度不大 。 目前 , 内容过滤技术也非常成熟 , 实际上“算法推荐”可以将影视剧正片切割版与片花、二创等内容进行精准的区分 , 并将不同类型的视频分别推荐给不同的目标用户 , 这也说明“算法推荐”在技术上可以做到对内容的识别和过滤 。 因此 , 优化算法 , 使算法更符合法律规定 , 防止算法传播侵权作品和违法信息 , 是每一个设计者和使用者的法律义务 。
02机器推荐与管理员推荐无根本差别
“算法推荐”在运行时没有人工干预 , 但算法本身是人工设计的 , 是按照人的意志与选择在运行 。 “机器、算法推荐与人的推荐有本质区别”的观点 , 显然是在偷换概念 , 其逻辑就是“杀人的是刀而不是凶手”的诡辩 。 在“算法推荐”的过程中 , 原先由管理员承担的注意义务(如防止侵权产品或违法信息传播) , 就应当由程序设计者在算法中体现 。 注意义务没有变 , 只是履行注意义务的方式发生了变化——从“人用肉眼发现”变成“人设计程序去搜索” 。
在原理上 , “算法推荐”要做到内容的“精准”推荐 , 首先要对用户上传的内容采取类型化(如区分影视剧、体育、新闻等)、标签化等干预手段 。 这都是平台对用户上传内容进行的主动选择和编辑的过程 , 完全符合最高人民法院《关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》(以下简称“信息网络传播权规定”)第九条规定的“主动选择、推荐”和第十条中的“设置榜单型推荐” 。
此外 , 多数平台允许用户在上传内容时设置类型、标签 , 或者允许用户在浏览内容时添加类型、标签 。 这要区分私密与公开两种情况 , 如果用户操作行为的效力只及于自己 , 如只能够在自己的页面中见到本人设置的标签 , 或者是由上传者一一@其他用户阅读 , 这就不是平台推荐行为;反之 , 如果用户的操作行为被平台认可 , 即平台肯定了用户设置的标签并按照这一标签推荐给其他不特定的用户 , 就属于默认用户操作的推荐行为 。
03不特定用户多了就成了“公众”
根据《信息网络传播权规定》第十条 , 认定网络服务提供者侵权的条件之一还有“公众可以在其网页上直接以下载、浏览或者其他方式获得的” 。 “算法推荐”的受众不是所有用户 , 而是符合个性化推荐条件的部分用户 。 这就需要解释 , 接受“算法推荐”的被标签化用户 , 是否属于“公众”的一部分?
在法律上 , “公众”从来都不是指所有用户 , 而是指不特定多数人或很多人 。 虽然很难界定出多少人可以称为“公众” , 但毫无疑问 , “算法推荐”的受众达到万人以上时 , 完全属于《信息网络传播权规定》第十条规定的“公众” 。 互联网有明显的“量变引发质变”的特征 , 我国法律对网络空间采用的是“人多即为公众”的理念 。 从表面看 , “算法推荐”使得每一个用户首页显示的视频内容不相同 , 但是一个侵权视频可以在数十万用户的首页显示 , 在数小时内会产生数十万的播放量 , 这就属于向公众传播 。
“算法推荐”不能成为免责的借口,侵权了怎么办?专家解答
文章图片
04被通知侵权后仍推荐应属“明知”
实践中的主要争议是 , 网络服务提供者是否“知道”侵权作品?对同样侵权内容 , 网络服务者接到合规通知后 , 第二次再推荐的 , 就属于“明知”而非“应知” 。 “明知”“应知”属于主观层面判断 , 要根据客观事实推论 。 法律的基本推理是 , 即便第一次不“明知” , 但被告知后 , 第二次就推定“明知” , 否则就会出现侵权者、违法者不承认 , 也就永远无法认定“明知”的悖论 。 一旦网络服务提供者知道了侵权内容之后 , 对同样或相似侵权内容就应当履行积极注意义务 。
当侵权作品大规模传播时 , 平台负有更高的注意义务 , 也更“应知” 。 “算法推荐”引起的侵权纠纷多是对影视作品的切割搬运 , 侵权成本极低 , 权利人很难防范 。 “算法推荐”加大了侵权作品的传播规模、加快了传播速度 , 经常上千条的侵权作品被实时传播和推荐 , 权利人通过自己核查的方式难以穷尽全部的侵权内容 。 此外 , 一些侵权视频的标题不含有与作品内容有关的关键词 , 但仍然被精准地推荐到了目标用户的首页置顶位置 , 权利人无法通过传统的关键词搜索方式穷尽平台中的全部侵权内容 。
在侵权行为已经规模化、产业化的情况下 , 依然按照“通知-删除”规则要求投诉后才处理 , 会不合理地加重权利人的负担而忽视了网络服务提供者的注意义务 。 对此 , 《中华人民共和国侵权责任法》采用了比“通知-删除”规则更为积极的“必要措施原则” 。 侵权责任法第三十六条规定:“网络服务提供者知道网络用户利用其网络服务侵害他人民事权益 , 未采取必要措施的 , 与该网络用户承担连带责任 。 ”在侵权内容反复出现的情况下 , 一旦网络服务提供者收到权利人通知 , 对日后同样的侵权内容 , 就应当积极防范——采取“必要措施” , 即改进算法模型 , 屏蔽侵权作品的关键词等信息 , 或采用图片或视频识别技术防范侵权作品 , 而不是再依赖“通知-删除”的消极规则 。
法律应当鼓励技术创新 , 也应当防止技术作恶 。 在互联网产业无国界的大背景之下 , 我国网络服务提供者应当积极履行注意义务 , 保护知识产权 , 维护中国互联网行业的形象 , 不要让网络平台成为传播侵权作品或违法信息的法外空间 。
图片来源|网络
(本文仅代表作者观点 , 不代表知产力立场)


    推荐阅读