logo
话题

来源:上海市法学会 东方法学

发布日期:2025年10月30日    


利用程序算法自动向用户推荐作品内容,已经成为网络服务商的普遍做法。这大大提升了用户扩散著作权侵权内容的能力,也扩大了服务商的收益。著作权法是否应当因此而强化算法推荐服务商的注意义务,存在很大争论。在决策者修正现有法律之前,在帮助侵权框架下分析算法推荐行为的属性,依然是合理的选择。在算法推荐前,虽然普遍存在内容安全审查,但是,其中的人工审查通常并不能导致服务商获知多数用户上传内容的版权属性。算法推荐技术本身也没有帮助服务商更有效地识别或预防用户侵权行为。如果单纯因为服务商采用算法推荐技术而要求服务商在预防用户侵权方面承担更高的注意义务,则会损害社会的整体福利。当然,内容过滤等网络技术的进步和网络商业模式的演进可能导致服务商承担更多的注意义务,但算法推荐技术本身并非推动这一制度改革的原动力。算法推荐过程的确存在一定的黑箱风险,强制披露难以有效解决这一问题,通知-删除(过滤)措施依然是更为有效的应对措施。

算法推荐是指网络服务商利用程序算法自动向目标用户推荐作品内容。现在,它已经成为网络内容存储与发布服务商用来增加用户流量的核心技术措施。数年前就有研究指出,2017年Amazon网站30%的浏览量来源于系统推荐;2015年Netflix用户观看的视频中80%源于系统推荐;YouTube用户浏览的视频中70%源于系统推荐。抖音则更是以算法推荐功能强大而闻名。算法推荐服务极大地提升了网络用户对自己上传内容的传播能力,也让网络服务提供商从更多的内容传播中获益。

依据现有著作权法帮助侵权的一般规则,服务商通过网站首页提示、排行榜、制作专题、内容索引等方式人工推荐用户上传的侵权作品,则很可能要承担帮助侵权责任。这一规则背后的法律逻辑是,网络服务商从事上述人工推荐时,有合理机会了解该作品的侵权属性,从而“知道或应当知道”上传内容的用户正在从事具体侵权行为,即具备了帮助侵权的主观过错。与人工推荐相比,算法推荐扩大用户侵权损害的效果有过之而无不及。因此,很多学者主张从事算法推荐的服务商应当承担更高的注意义务。在所谓算法推荐第一案“《延禧攻略》案”中,一审法院就接受这一观点。部分学者甚至走得更远,直接将算法推荐视同人工推荐行为,主张服务商同样承担帮助侵权责任。美国版权局很有影响的关于美国版权法第512条的研究报告也对从事算法推荐的服务商继续获得安全港规则的庇护持怀疑态度。当然,也有部分意见强调算法推荐的特殊性,认为服务商在进行算法推荐时并不了解用户内容的侵权属性,因而并不具备帮助侵权意义上的过错。欧洲议会在最新的数字服务法案中也强调,基于用户的背景信息或偏好推荐内容,并不一定意味着服务商对用户的侵权行为有具体的认知。

围绕算法推荐的争议表明,学术界对于网络服务商帮助侵权责任规则的底层逻辑和公共政策、算法推荐的工作原理、服务商人为干预算法的可能性等法律或事实问题,认识上都还存在明显的分歧。在这一背景下,对算法推荐的著作权法定性展开深入研究,依然有重要意义。本文认为,网络平台的算法推荐大体上是“版权中立”的,即它通常没有偏好侵权内容的内在倾向,也没有使得平台更方便地识别出侵权内容。法院在分配用户传播版权侵权内容引发的法律责任时,应该考虑算法推荐系统这一“版权中立”特征。

一、算法推荐者帮助侵权的分析思路

随着网络技术的进步,新的内容分享平台商业模式的成熟,著作权法下原本适用于内容存储与发布服务的服务商的帮助侵权规则正逐渐受到质疑。比如,欧盟最新的版权指令就在很大程度上模糊了上传内容的网络用户和提供内容分享服务的服务商的传播行为的边界,要求此类服务商事先付出合理努力为用户上传内容的传播寻求著作权授权。这实际上接近放弃服务商为用户的直接侵权行为承担帮助侵权责任的规制思路,要求服务商为用户的传播行为承担直接侵权责任。是否继续接受现有著作权法下的服务商帮助侵权责任框架,直接影响法院对算法推荐行为的定性。本文先简要说明现阶段坚持适用网络服务商帮助侵权责任框架的必要性及其限度,然后在此基础上探讨算法推荐行为的定性以及安全港规则继续适用于这一行为的可能性。

(一)

帮助侵权规则的适用

网络用户侵害著作权导致的法律责任的分配,体现了重要的公共政策目标。理论上,用户通过网络平台传播侵权作品时,是以自己的名义对外传播,平台只是提供了帮助(内容存储与发布服务)。不过,多数时候服务商的利益并不在于收取网络服务费,而是直接分享版权内容传播所带来的利益。以视频分享平台为例,发布内容的用户通常并不向平台支付网络服务费,相反,还可能从平台那里获得回报。这是因为平台在用户的传播界面上突出显示自己的商业标志,并实际控制用户传播界面的广告内容或推荐内容的投放,将自己塑造成公众获取各种内容的总入口,从用户传播行为中获得实质利益。在此类商业模式下,用户自行分享的内容与平台自身采编内容,对于实现平台商业利益而言,并无本质区别。对平台而言,利用用户分享的内容,可能更有利于平台利益的实现,因为平台无需负担版权许可的成本。因此,在观念上,将用户视为平台实现自身商业目的的工具,也未尝不可。可见,将内容分享平台视为通道还是内容提供者,在法律逻辑上是两可的选择。这大概也是前述欧盟最新版权指令强化内容分享平台法律责任而未遭遇根本挑战的原因所在。

著作权法当初将网络内容分享平台类服务商视为“通道”,而非出版社或电视台,减轻了服务商的法律责任。这是立法者深思熟虑的结果,这种做法有利于在互联网行业发展初期提升社会投资进入网络行业的积极性,也避免服务商因为担心版权侵权责任而对用户内容的过度审查,最大限度地保障用户的利益。这一政策选择不可避免地牺牲了著作权人的利益—追究服务商帮助侵权的过错责任比追究直接侵权的严格责任要困难很多。不仅如此,美式安全港规则的引入,进一步压缩了服务商的注意义务,导致利益的天平进一步向服务商倾斜。

欧盟最新的版权指令立法在很大程度上背离传统的帮助侵权的立法思路,接近将内容分享平台视为版权内容的直接传播者,这在世界范围内引发激烈的争论。国内也有学者援引欧盟指令,主张将内容推荐服务视为服务商主动发布内容的行为,追究服务商责任。的确,随着平台商业模式不断发展,以及内容过滤等网络技术的进步,服务商从用户内容传播中获利的程度、预防用户侵权行为的能力都有显著提升,立法者有必要在服务商和著作权人之间重新配置版权侵权预防的注意义务。理论上,我们也不能排除中国立法者将来参考欧盟的做法,在某些情况下放弃帮助侵权框架,改用直接侵权规则的可能性。到那时,部分提供网络内容分享服务的服务商可能要为用户的传播行为承担直接侵权责任(替代责任);该服务商在提供内容分享服务时是否采用算法推荐技术、是否存在过错,对于其行为的法律定性将是一个无关紧要的问题。在决策者作出明确调整前,本文假定未采用算法推荐服务的内容存储与发布服务商未实际控制用户行为也未直接从用户传播行为中获得明显而直接的利益,因而它被视为“通道”,而非“出版者”(内容的直接提供者),即该服务商对用户的内容分享行为只承担帮助侵权或共同侵权责任,然后集中讨论该服务商单纯增加算法推荐服务是否招致更严厉的版权侵权责任。脱离这一假设前提以及相应的模块化分析思路,我们很容易将其他技术进步或商业模式变化(比如控制用户行为并明显从中获利)导致的更严厉的服务商责任与单纯采用算法推荐行为导致的法律责任相互混淆,从而得出错误的结论。

(二)

推荐者过错的认定

在现有的帮助侵权或间接侵权框架下,网络服务商帮助用户对外传播后者独立选择的内容时,无论是否进行内容推荐,也无论是人工推荐还是算法推荐,都是以用户自己的名义对外传播,公众对此也心知肚明。如果侵害著作权,用户承担直接侵权责任,并无疑问。服务商推荐该侵权内容起到推波助澜的作用,或许会因为主观上存在过错而承担帮助侵权责任,但并不会成为直接侵权者。部分学者强调算法推荐行为的主动性,强调网络服务商主动扩大用户上传内容的传播,淡化网络服务商的主观认知以及用户对传播过程的发动和主导。这实际上偏离或放弃了现有网络服务商帮助侵权责任的分析框架,倾向直接侵权或者替代责任的分析思路。在单纯算法利用推荐并不改变用户对外传播的名义,不改变用户自主选择内容的自由,也不改变平台对用户行为的控制和平台获利方式的情况下,现有法律并不支持这一分析框架的转换。

有学者坚持帮助侵权或共同侵权的分析思路,但是过度解释“共同故意”或“意思联络”要件,认为用户协议授权服务商对用户内容进行后续利用,因此服务商和用户之间形成用户上传视频、服务商通过信息流推荐视频的“意思联络”。“在特定视频的传播上导致了权利人的损失,构成共同的过失,从而构成意思联络的共同侵权,符合主观关联共同侵权行为的要件。”实际上,内容分享服务商与用户之间总是存在基于用户协议的所谓“分工合作”的合意:用户上传内容,服务商帮助对外发布。这种合意如果不含有服务商对用户行为侵权属性的认知,则并非帮助侵权或共同侵权意义上的共同从事具体内容传播行为的“意思联络”。过度扩张解释过错要件,很容易将立法者刻意选择的帮助侵权框架转化成直接侵权的规制思路。为了避免这一偏差,在分析服务商是否与用户有“意思联络”时,法院还是应该关注服务商提供网络服务时,是否有可能在履行合理注意义务(或采取合理措施)后,获知用户具体行为的侵权属性。

在帮助侵权或共同侵权的框架下,算法推荐是否为服务商招来侵权责任的关键在于服务商是否存在过错,即它采取合理措施后是否知道或应当知道用户行为的侵权属性。显然,单纯从教义学上探寻服务商主观上是否知道或应当知道,很难得出有意义的结论。因为在具体情境下,服务商是否知道或应当知道用户正在从事侵权行为,取决于服务商究竟采取了何种预防措施,而采取何种预防措施最终取决于法律事先设定的注意义务水平。比如,如果法律要求服务商在算法推荐前,必须人工审查用户获得版权授权的情况,则服务商在履行此注意义务后很容易就得知用户行为的侵权属性;相反,如果法律并不要求服务商进行人工审查,则服务商很可能并不知道用户是否在从事侵权行为。所以,问题的关键在于,法律应当为服务商设置何等的注意义务(或者要求服务商采取何种预防措施),而不是单纯依据服务商主观上是否存在过错来决定其是否承担责任。

具体而言,在判断算法推荐者是否应当承担帮助侵权责任时,我们先观察服务商从事常规的算法推荐活动时,是否有机会或者有必要知晓用户内容的著作权侵权属性。如果答案是肯定的,则意味着算法推荐者存在“过错”,进而需要承担帮助侵权责任。这样就无需进一步探讨是否需要强化内容推荐者的注意义务。相反,如果算法推荐本身“版权中立”(内容中立),服务商在推荐时并不需要、实际上也没有识别出盗版内容并向它倾斜,则法院并不能因为服务商从事内容推荐这一事实本身而认定它存在过错。

当然,侵权法下的过错分析并不因此终结。服务商采用算法推荐技术,在提升了多数人福利的同时,的确使得部分著作权人的境遇变得更糟糕。因此,法院还应进一步考虑,算法推荐者是否能够采取合理措施识别出被推荐作品的侵权属性,避免算法推荐导致侵权后果扩大,从而在新技术背景下最大化社会福利。如果答案是肯定的,则著作权法依然有必要修正服务商的注意义务标准,要求服务商采取更有效的措施避免推荐侵权作品,比如对被推荐的作品进行人工审查,否则要承担帮助侵权责任。

(三)

安全港的庇护范围

在帮助侵权或间接侵权的一般规则的基础上,以美国为代表的版权立法引入了安全港规则,进一步限缩了网络服务商责任。即在服务商满足一定条件的情况下(比如,建立有效的通知删除机制、制裁重复侵权、容纳权利人采取的技术措施、不编辑内容等),帮助侵权一般规则意义上的“知道”或“应当知道”被限缩为所谓的“红旗规则”意义上的具体认知。即只有服务商实际知道具体侵权行为的存在或具体侵权行为非常明显(像红旗招展)时,服务商才有义务采取合理措施阻止该侵权行为或拒绝为其提供帮助。在服务商对侵权行为有具体认知(specific knowledge)前,无需主动采取措施识别和阻止侵权活动;相反,通常其只需要静等著作权人的侵权通知并采取相应措施,此即所谓的“通知-删除”规则。

如果服务商没有满足上述立法要求,则只能停留在安全港外面(即不受该安全港规则庇护),接受帮助侵权一般规则的约束。换言之,服务商可以拒绝按照安全港规则要求从事,自甘冒险待在安全港外面,不受上述“红旗规则”和“通知-删除”规则的庇护。这时候,服务商所冒风险是,法院可能依据更模糊的帮助侵权的一般规则,认定服务商存在过错(承担更多的注意义务),从而要求服务商为用户的侵权行为承担责任。

中国的立法者从一开始就未明确,我们是否引入了美国式的安全港规则。最高人民法院司法解释的立场也模糊不清,司法实践也标准不一。本文无意讨论中国安全港规则的有无和去留问题,而是先假定中国法接受安全港规则,限缩了服务商的注意义务范围,然后分析是否有必要因为服务商从事算法推荐服务而排斥安全港规则的适用。

这里先从美国安全港规则当初所设定的内容存储与发布服务商的定义出发,从理论上分析此类服务商的确切范围。美国法对此类服务商的定义为:“根据用户指令,帮助用户存储内容并以用户名义对外发布的服务商”。有意思的是,立法者对于服务商是否可以主动帮助用户推广其发布的内容保持沉默。美国版权局的研究报告认为,法院将安全港规则延伸到内容推荐服务,可能导致安全港规则被拓展到国会预见到或意图保护的服务商范围之外。欧洲也有研究认为,内容推荐(recommending)独立于主机托管服务(hosting),欧盟电子商务指令中服务商责任限制的规定也没有考虑过内容推荐行为。国内也有学者持类似意见。

在美国过去的司法案例中,部分著作权人认为,网络安全港规则所保护的内容存储与发布服务仅仅限于内容存储和发布,不包括内容推广。如果服务商主动帮助用户推广内容,出于自利动机扩大了侵权后果,则不再获得安全港规则的庇护。比如,在“UMG Recordings案”中,原告UMG就认为,美国版权法上安全港规则仅仅保护网络主机托管服务(web hosting services),服务商不能从事提升内容可及性的服务(accessibility-facilitating functions)。该案中,被告软件系统自动将用户上传视频文件分成更小的文件包,以方便传播;自动将文件转换成更多人能够浏览的Flash7等文件格式并在服务器上保存;自动从用户提供的内容描述信息中抽取标签(meta-data)以帮助其他用户搜索该内容。再比如,在“YouTube v. Viacom案”中,YouTube公司与苹果、索尼、松下等公司达成协议,通过转码的方式使得这些公司的终端设备用户能够访问YouTube网站用户视频,YouTube还利用算法自动向用户推荐相关视频(related videos)。Viacom公司认为,YouTube通过这些推广措施主动扩大了视频的传播范围,因此不受安全港规则的保护。

在反对意见看来,安全港规则所庇护的内容存储与发布服务商可能仅仅限于最为基础或简陋的类型,即用户上传的内容被原封不动地存储在服务商的服务器中,产生一个公众可以访问的网络内容地址(URL地址)。除此之外,服务商不作任何推广活动,对公众是否实际访问该用户上传内容,漠不关心或无动于衷。现实中,真正接近这一“基础原型”的服务商并不多见,单纯的网站主机托管服务或许可用户自行公开分享内容链接的网络硬盘(网盘)服务大概是最接近的代表。

实际上,将安全港规则保护的内容存储与发布服务局限在“基础原型”的范围内,缺乏历史事实基础。在安全港规则立法初期,上述带有“基础原型”性质的“单纯主机托管服务”与“网盘服务”并非立法者心目中理想的“内容存储与发布服务”的代表。在提供此类服务时,服务商通常无法应版权人请求删除用户上传的具体侵权内容,而只能一揽子地停止主机托管或网盘服务。当时立法者所理解的典型服务是提供网络布告栏(BBS)服务,希望它能够获得安全港规则的保护。可是,BBS服务商在提供内容存储与发布服务的同时,也附加提供多种多样的内容推广服务:对系统的内容或主题进行分区或分类、对用户跟帖自动归类并按时间排序、许可公众对帖子内容进行检索、建立用户帖子的排行机制(按照浏览量、跟帖量等等)、将热门内容置顶、服务商整体推广BBS网站以吸引更多用户访问等。显然,如果用户上传的是侵权作品,上述推广措施当然会导致侵权作品的传播范围更广,即扩大了侵权后果。很难想象,将BBS服务视为“基础原型”的立法者,会刻意排斥所有其他带有类似内容推荐服务的服务商。反对意见的解释思路过窄地限缩了内容存储与发布服务商的范围,使得安全港规则几乎失去所有的庇护对象。因此,我们有理由相信,安全港规则并不当然限制服务商对用户上传内容进行推荐或推广。当然,相关内容还是以用户的名义对外传播,否则服务商就不是网络服务提供商,而直接变成了内容提供商,从而承担直接侵权责任。

美国法院在前文提到的YouTube案中也确认,虽然服务商在用户搜索内容时提供内容推荐服务,但依然能够获得安全港规则的庇护。法院强调,YouTube的搜索推荐技术是自动系统(auto-mated system),用户独立决定是否观看侵权内容,YouTube并未控制侵权活动。显然,法院并不认为,自动推荐活动会导致服务商无法获得安全港规则的庇护。

上述分析表明,在安全港规则创立之初,典型的内容存储与发布服务商就已经采用内容推荐服务,只是技术原理和推荐效果与如今的智能推荐算法有所差别而已。因此,原本受到安全港规则庇护的服务商,不应该仅仅因为其加强了内容推荐服务就当然失去安全港的庇护。法院判断安全港规则的适用性时,还是要分析判断服务商提供智能推荐服务的具体方式,看它是否因此有机会获知用户行为的侵权属性。

二、算法推荐措施的中立性考察

服务商在从事常规的算法推荐时,是否“版权中立”?实践中,服务商利用的算法推荐方法众多,比如自动生成排行榜、以内容专题进行推荐、提示相关搜索关键词推荐、基于用户背景信息的推荐,等等。限于篇幅,这里仅仅关注最有代表性的基于用户背景信息的算法推荐措施,并将它分割成推荐前的内容安全审查、初始阶段的主动随机推荐“冷启动”和基于用户背景信息的内容推荐三个环节进行考察。

(一)

推荐入口的“内容安全审查”

理论上,网络服务商可以自动不加区分地随机推荐所有用户上传的内容,并根据用户反馈的结果自然调整推荐的力度。不过,现实中,服务商并不会如此鲁莽行事,而是建立内容推荐池并控制其入口。原因至少有两方面:服务商的流量是稀缺资源,服务商控制入池作品的范围,优先推荐部分合作伙伴的作品,可以最大化自身的商业利益;同时,服务商需要通过这一控制措施消除自己传播用户内容的诸多法律风险。比如,互联网信息服务管理方面的法规要求服务商承担远远超出著作权法要求的注意义务,即要求服务商主动采取措施杜绝危害公共安全、黄赌毒之类的内容出现,否则,服务商要承担非常严厉的行政或刑事责任。对于服务商而言,用户传播此类违法内容,会给自己带来极高的法律风险。因此,服务商要采取广泛而深入的事前和事后审查措施(以下统称“内容安全审查”),避免用户的违法内容被纳入内容推荐池。

著作权法是否会因为网络服务商进行内容安全审查而加重服务商的帮助侵权责任呢?这一问题并没有统一答案,取决于个案的具体事实。以短视频分享平台为例,大多数平台使用“机器(算法)审核先行,人工审核兜底”的审核策略。通常而言,“暴力、血腥、政治、黄赌毒等安全内容的审核属于浅度语义审核,基于通用的识别模型即可识别”。典型的文字内容安全审查措施是,服务商主动或应要求设定敏感的关键词,系统自动扫描用户上传的内容。如果用户内容含有敏感关键词信息,系统自动阻止该内容上传。处在模糊地带的,或者经用户举报或异议的内容,采用必要的人工辅助审查措施。对于图片、音视频等非文字类内容的安全审查,同样依赖自动的内容识别技术来判断其中是否包含敏感人物的肖像、血腥场面、裸露部位等。无论是文字、图片或音视频内容,绝大部分内容安全审查工作是由网络系统自动完成,而自动审核不通过、用户举报或上热门搜索的内容则要进入人工审查的视野。

理论上,在人工进行内容安全审查时,服务商有可能顺便获知争议内容的版权侵权属性。不过,因为内容安全关切而进入审查人员视野并且有商业价值的作品,所占比例应该较小。原因是,绝大多数具有商业价值的普通的版权作品,权利人在国内发表作品时通常有深度的自我审查措施,同时也要通过国内新闻出版方面的内容审查要求。网络用户通过网络传播上述版权内容时,触发平台内容安全拦截系统而进入人工审查程序的机会原本就不是很大。一小部分有商业价值的作品因触发内容安全审查机制而进入人工审查程序后,审查人员通常也仅仅知晓那些知名作品的侵权属性,比如热播的视听作品、实时的体育赛事直播画面、知名作家的小说作品,等等;而对于普通作品,审查人员依然很难推测上传作品的用户是否获得版权授权。因此,我们有理由相信,内容安全的审查人员进行人工审查时面对的多是非知名作品。在缺少著作权人侵权通知的情况下,审查人员很可能并不直接了解用户内容的侵权属性。因此,虽然服务商在推荐内容前,进行系统自动和人工审查相结合的内容安全审查,但是在著作权法意义上,它依然大概率是“版权中立”的审查措施。

(一)

初始的主动随机推荐

在作品通过内容安全审查进入推荐池后,推荐系统会“冷启动”,自动赋予作品一定的推荐权重并尝试在特定时段内主动随机推荐给用户并观察用户的反馈。用户的初始反馈可以帮助系统初步了解该新内容的潜在观众群体,从而为下一轮的算法推荐打好基础。在“冷启动”过程中,如果用户反馈不佳,系统可能就放弃额外增加推荐权重的努力,甚至停止推荐该作品。如果最初阶段的反馈很好,作品传播进入正循环,系统会向更多的人推荐该作品。

在分析“冷启动”阶段服务商利用程序算法随机地向其他用户推荐用户上传内容时,依旧以上传用户而非服务商自己的名义对外传播内容。在现有的法律背景下,这一事实在区分直接和间接侵权方面有重要意义。如果服务商直接以自己的名义对外传播用户的内容,则很容易招致直接侵权责任。现实中,服务商很少会如此鲁莽行事,也没有必要这么做。在随机推荐前,服务商并不需要对进入推荐池的用户内容进行全面的人工审查,通常并不了解该作品是否侵害他人著作权,从而不具备帮助侵权意义上的“过错”,这是它与传统的人工推荐行为的本质区别。

(三)

基于用户背景信息的算法推荐

此类算法推荐主要有三种典型类型:其一,基于用户已浏览内容的推荐系统。这一推荐系统收集用户过去浏览内容记录,识别该内容的特征,然后向其推荐与该内容特征相匹配的新内容。比如,用户甲过去的浏览历史表明它喜欢作品A。系统获取作品A的内容标签后,会自动向该用户推荐带有类似标签的作品B。作品的内容标签通常源于内容上传者提供的作品标题、内容关键词或其他内容标签等,而非网络服务商的人工标注。因此,系统在提供此类推荐服务时,通常并不会通过人工浏览被推荐的作品。其二,基于平行用户浏览内容的推荐系统。这一推荐系统利用平行用户的浏览习惯确定内容之间的相关性,然后向目标用户推荐其可能喜欢的内容。比如,用户甲浏览了作品A、B和C,系统因此认为作品A、B和C具有相关性(平行用户的记录越多,相关性越高);用户乙浏览作品A和B后,系统可能因此向其推荐作品C。Amazon的书籍推荐系统所采用的“User-based filtering”策略,就属于这一推荐方法。系统根据用户购买历史确定书籍之间的相关性,再根据过往的购买历史,筛选出与目标用户购买历史接近的“相关用户”,再结合用户当前在网站上的浏览情况,向该用户推荐其尚未购买的书籍。Netflix和YouTube的推荐系统大体也含有类似的推荐思路。其三,基于用户自身画像的推荐系统。这一推荐系统事先收集用户的个人信息,比如年龄、性别、受教育背景、工作经历、收入、地理位置、作息习惯等,对用户进行画像,然后利用算法来推荐匹配的内容。与前述推荐方法相比,这一推荐方法并不依赖用户自身或其他平行用户过去的浏览内容就可以实现推荐功能。比如,网络服务商可能会主动给都市高收入年轻女性推荐与化妆相关的视频,但很少会给男性推荐。用户背景画像与内容标签之间的匹配,由推荐系统自动检索完成,因此系统并不需要通过人工浏览被推荐的作品内容。

在实际操作中,网络服务商会综合采用上述各种推荐算法或者引入更多的推荐方法,实现更好的推荐效果。在执行综合的推荐算法时,只要服务商不通过人工浏览被推荐内容,就不会了解被推荐作品的侵权属性,大致以“版权中立”的方式工作。在这一点上,算法推荐与人工推荐存在本质的差别。

三、提升算法推荐者注意义务的合理性

既然标准的算法推荐大体上是“版权中立”的,则法院不能因为服务商从事算法推荐这一事实本身就认定服务商存在过错。但是,这并不意味着帮助侵权的分析到此结束。相反,决策者还需要进行第二步的考察,即算法推荐者是否能够采取合理措施避免侵权后果扩大,从而最大化社会福利。如果答案是肯定的,则著作权法有必要修正服务商的注意义务标准,要求服务商采取有效措施避免推荐侵权作品,否则承担帮助侵权责任。

(一)

推荐前人工审查的可能性

在安全港规则的框架下,网络服务商在阻止用户侵权方面承担有限的注意义务。网络服务商只有在明知或具有红旗标准意义上的应知(明显应当知道)时,或者在接收到权利人的侵权通知后,才需要采取措施及时移除侵权内容。在权利人发出侵权通知前,现有安全港规则并不要求服务商采取措施防止侵权内容被推荐算法扩大传播范围。如果法律改变立场,要求服务商更有效地预防用户的侵权内容被算法推荐,则服务商必须在作品进入内容推荐池前采取行动,即“对用户上传的内容进行主动审查,提前将所有侵权的片段予以识别和过滤”。以现有商业模式和技术条件,在收到权利人发出的侵权通知前,服务商对作品授权属性的主动审查,大体上只能以人工方式进行,没有更好的替代方案。

如果立法者并未接受安全港规则,则法院将适用帮助侵权的一般规则:如果服务商采取合理措施能够有效阻止用户侵害版权的行为,则法院有可能要求服务商这么做。这里所谓的合理措施,不排除事先一定程度的人工审查。比如,服务商在日常巡查过程中应留意其内容排行榜前列的作品是否明显侵害版权;已被投诉的近期热播影视剧的长视频内容是否再次出现并明显侵权,等等。不过,这距离要求服务商事先对用户上传的所有内容进行人工审查,还有相当的距离。这么做所导致的社会福利损失,在帮助侵权一般规则的分析框架下,也是不能接受的。

接下来的问题是,算法推荐大大提升了服务商帮助侵权的能力,是否意味着服务商因此应当承担比普通服务商更高的注意义务呢?为了回答这一问题,我们不妨先做一个思想实验:假定现有针对普通网络服务商的帮助侵权规则是合理的,然后观察服务商引入算法推荐措施后,利益平衡关系的变化,再看服务商承担何种程度的注意义务能够最大化社会福利。如前所述,算法推荐本身大体“版权中立”,它会无差别地放大侵权和非侵权内容的传播效果,即成比例地扩大典型的内容分享服务商原本创造的社会净福利。从社会角度看,算法推荐导致普通用户获得更强大的网络传播能力,自然就创造了更多的社会福利,因此值得鼓励。

在探讨服务商是否能够有效降低算法推荐措施带来的侵权后果时,法律应关注服务商采取额外措施预防侵权的效率,而不是只关注服务商客观上是否能够负担额外措施的成本或服务商是否从推荐中获得利益。国内很流行的意见认为,服务商“能力越强,涉入越深,利益越大,则责任越重”;“平台通过算法收获技术红利的同时,对版权保护应该负有更高的注意和管理义务。”在这些意见看来,算法推荐让服务商获得强大的传播能力以及与之相应的商业利益,因此,服务商应该为扩大的侵权后果承担更大的责任。这一主张诉诸直觉,强调服务商客观获益和负担能力,却没有考虑让服务商负担额外的成本是否具有社会效率。这同样不符合侵权法自身的内在逻辑。其实,服务商是否应当承担更多的注意义务,与其帮助侵权的能力并无必然联系。比如,现在微博和抖音之类的网络平台所具备的扩大用户行为的侵权后果的能力,远远超过传统的出版社或电视台,但是,它们为第三方侵权行为承担法律责任的可能性却远小于后者:网络平台仅仅在存在过错的情况下,才为第三方用户的行为承担帮助侵权责任;而出版社或电视台却要为自己出版或播出的第三方投稿内容承担直接侵权责任(通常是严格责任)。著作权法并没有单纯因为这些平台具有超强的帮助侵权能力,而让平台比出版社或电视台承担更高的注意义务。在本文看来,“能力越大责任越大”的前提在于,服务商新增的能力提升了服务商预防侵权的效率,即它使得服务商能够更有效地识别和阻止侵权行为,而不产生更多的负外部性。或者,这一能力强化了平台对用户的控制并明显获得直接利益。如果这一前提不存在,即便服务商有负担能力,提升服务商注意义务也同样会从整体上损害社会福利。

算法推荐技术提升了服务商的传播效率,却没有改变服务商与权利人在预防著作权侵权上的成本对比关系。在算法推荐前,进行广泛的人工审查以避免用户上传内容侵害版权,服务商将会耗费比著作权人更大的人力成本来预防用户侵权。同时,如前所述,服务商的人工审查措施还将降低所有用户传播内容的速度和便捷程度,增加整个社会的成本。因此,提升服务商的注意义务,要求服务商在推荐前对用户内容进行人工审查,依然是不可接受的做法。当然,这里并不主张,决策者在任何时候都不会要求服务商进行人工审查以防止用户的违法行为。实际上,在非版权领域,当决策者认为用户侵害的利益足够重要时,还是有可能要求服务商承担此类人工审查义务。比如,在涉及内容安全的高度敏感领域,政府就要求服务商承担更多的注意义务,使得“关键词过滤+事前或事后的人工审查”成为服务商的标准做法。虽然服务商事前的审查措施大大增加了服务商的成本,决策者依然愿意如此选择。版权保护过去没有、将来也不应该像内容安全那样被放在更优先的位置。因此,决策者不应该以保护版权的名义要求服务商在推荐前进行人工审查。如后文所述,替代性的“通知-删除或过滤规则”尚能有效应对用户侵权行为,在网络版权保护机制并未因算法推荐而实质失败的背景下,结论更是如此。

(二)

内容过滤与推荐机制的二分

前文的分析表明,采用算法推荐技术这一事实本身并不应导致服务商在预防用户侵权方面的注意义务提升。不过,这并不意味着,其它网络技术的进步也不会导致服务商注意义务的变化。相反,与算法推荐关系不大的内容过滤技术的飞速进步,改变了服务商与著作权人在预防用户侵权上的成本对比关系。现在,权利人发出侵权通知后,网络服务商能够采取合理的内容过滤措施,自动阻止用户现有的或将要发生的侵权行为。这样,著作权人发送一次侵权通知,就能够持续地阻止后续的侵权行为。这大大提升了用户的维权效率,也降低了服务商应对侵权通知的成本。如前所述,欧盟最新的版权指令正式引入了网络服务商的内容过滤义务。

当然,著作权法对服务商版权内容过滤义务的设计是非常复杂的问题,本文无意涉及。这里只简要勾勒在最新技术背景下落实这一义务的制度框架。网络服务商进行内容过滤的技术方案有很多,其中,文件哈希值过滤、内容关键词过滤、内容全文比对等是常见的选择。不同技术方案的过滤效果和成本有很大差别。比如,文件哈希值比对不容易出错,但是很容易规避;关键词过滤成本很低,但是准确率较差,如果配上人工审查措施,则它的成本优势不复存在;内容全文比对的过滤方案比哈希值对比方法更难以规避,比关键词比对方法出错率更低,也是目前最为准确的过滤方法。但是,在现有的技术条件下,对用户上传的海量作品进行实时的全文比对,计算资源的耗费依然非常惊人。为了降低服务商内容过滤机制的运行成本,法律应该赋予服务商一定的弹性空间,许可服务商根据实际需要选择过滤的门槛和过滤的时机,综合多种过滤机制提升过滤效率。

理论上,版权内容过滤措施大大提升著作权人的侵权通知的效率后,算法推荐服务商事先审查以避免侵权内容被推荐的压力也就会随之降低。不过,服务商的版权内容过滤机制本身也要考虑成本和效率的平衡,不可能设计得完美无缺。为了避免过滤机制损害公众利益,著作权法应许可服务商漏掉一些可能侵权的行为,以避免过于严格的过滤标准错误阻止合理使用或其它没有侵权的作品利用行为。因此,即便服务商采用版权内容过滤措施,依据权利人的侵权通知进行过滤,依然会有相当数量的侵权内容最终会通过过滤系统的看门机制,进入算法推荐的内容池。服务商对这些内容进行算法推荐,导致侵权后果扩大,是否要承担帮助侵权的责任?答案依然是否定的,即服务商不需要为该推荐行为承担责任,否则会刺激服务商采取更严格的过滤标准,从而威胁更多公众的利益。对于这一部分被过滤系统放过的侵权内容,著作权人只能单独发送具体的侵权通知,启动服务商的人工审核和移除机制。当然,如果服务商采用了过于宽松的过滤标准(相对行业共识而言),在看门环节漏掉了原本不应放行的侵权内容,导致它们进入推荐池,则服务商需要承担帮助侵权责任。不过,服务商之所以承担责任,是因为它采用了不合理的过滤标准,而非它在后续推荐环节帮助扩散该内容。

法律要求网络服务商承担版权内容过滤义务,并非由于服务商采取了所谓内容推荐算法,而单纯是因为内容过滤技术本身的进步,使得更有效的服务商看门机制成为可能。而且多数时候,这一看门机制发挥作用的前提是,侵权内容出现在服务商界面后,权利人向服务商发出侵权通知,或者因作品访问量很大而自然进入服务商视野。如果内容过滤技术至今未成熟,而算法推荐技术已经很发达,则我们大概率会容忍算法推荐机制有效运作,继续要求权利人利用传统的“通知-删除”机制来维权。在探讨提供算法推荐服务的服务商的注意义务时,将内容过滤与算法推荐技术分开来考虑,是模块化思维的关键所在。

四、算法推荐的黑箱风险及应对措施

(一)

算法推荐的人为干预

理论上,服务商在进行算法推荐时,可以完全由程序系统随机推荐或者根据用户背景信息自动推荐用户可能喜欢的内容,而不进行更多的人工干预。不过,实践中网络服务商可能出于各种各样的商业目的人为“干预”算法推荐的过程,实施流量管理策略。服务商这么做的原因多种多样,既有可能是为了落实法律要求、政府指令或权利人请求,限制有害内容的传播;为了避免稀缺的流量向部分头部用户过度集中,影响其他用户的积极性和平台内容生态的多样性;也有可能是为了维护自己和部分用户的更密切或更直接的商业合作关系,对这些用户进行流量倾斜。服务商在干预推荐算法时,通常是基于自动化的流量监测结果或事前签署的服务协议,而非基于服务商对用户内容版权属性审查的结果。服务商在采取这些干预措施时,并不必然会对用户作品的侵权属性有更具体的认识,因此,并不必然导致更大的帮助侵权风险。

不过,服务商的确有可能在明知用户作品侵权的情况下人为干预推荐算法,赋予该用户更多的流量资源,以增加平台本身的吸引力。在现有的帮助侵权一般规则的框架下,这类人工干预行为的定性很明确:服务商明知或应知内容侵权依然优先推荐,导致侵权后果扩大,服务商自然要为自己干预推荐算法的行为承担帮助侵权责任;极端情况下,服务商甚至要承担与用户分工协作的共同侵权(直接侵权)的法律责任。真正困难的不是对此类人工干预行为的定性,而是发现此类人工干预行为。我们要探讨的是,著作权法是否需要因为这类干预行为难以发现,而改变现有的关于算法推荐侵权的认定规则。

(二)

推荐算法的透明性

客观而言,服务商干预个性化算法推荐的方式,与传统的推荐方式相比,的确更容易引发“算法黑箱”的疑虑。在传统推荐方式下,将作品置于网络首页或排行榜前列进行推荐,服务商、权利人和网民众目睽睽。服务商想重点推荐什么内容,即刻会在排行榜或首页上显现。即便服务商强调首页或排行榜由系统自动生成,权利人依然可以主张,服务商在日常网络巡查过程一定会留意自己首页或排行榜的内容。因此,著作权人证明服务商明知或应知排行榜前面的内容的侵权属性,并不十分困难。这也是最高人民法院司法解释明确的传统推荐行为的法律责任,并没有引发实质争议的原因所在。

服务商采用个性化的算法推荐后,系统可以不再向所有用户提供统一的排行榜。每个人访问的页面可以是推荐算法影响下的个性化的页面。这使得服务商对外推荐的作品不再受到统一的主页和排行榜的篇幅限制。同时,我们也的确有合理理由相信,服务商不可能利用人工对这些千人千面的个性化推荐的情形逐一审查。在这一背景下,著作权人很难证明自己看到的页面也是服务商管理人员应该看到的页面,进而很难证明服务商在知道或应当知道特定用户作品侵权的情况下进行算法推荐。换言之,对于这些额外的后台人为干预措施,权利人很难证明它存在。

不过,需要特别指出的是,权利人难以发现服务商人为干预算法推荐,与发现用户侵权行为是两个问题。有意见认为,算法推荐技术使得著作权人更难发现侵权内容,提升维权难度,这一观察并不准确。服务商采用个性化的算法推荐技术并不使得权利人发现用户侵权行为变得更困难。相反,它有可能使得权利人发现侵权更容易。权利人在服务商平台上专注于寻找并浏览侵权内容,很可能导致算法推荐系统会受著作权人浏览习惯的影响更及时地向其推荐可能侵权的相关内容。此外,算法推荐系统鼓励用户上传更准确的内容标签以方便推荐或方便公众寻找相关内容,这客观上也会使得著作权人更容易利用平台内部或外部的搜索引擎发现用户上传的侵权内容。因此,平台采用个性化的算法推荐技术,通常并不直接增加权利人发现用户侵权行为的难度。

理论上,面对上述黑箱风险,决策者可以通过行业管制规范,强制要求服务商增加其推荐算法的透明性,在一定程度上降低著作权人监督服务商的难度。欧盟在最新的数字服务条例立法中就要求大型服务商增加推荐算法的透明度。不过,在明确要求服务商这么做之前,我们需要先回答一个很有意思的问题:服务商在黑箱里识别出侵权内容,然后利用算法优先推荐它的可能性究竟有多大?技术上,服务商推荐算法的默认设置应该是优先推荐那些受用户欢迎的内容,以最大化网络平台的流量。要实现这一目的,服务商其实没有动机耗费资源去人为了解内容是否获得著作权人授权,是否为热播剧或潜在的受欢迎的内容。相反,在推荐算法中平等对待正版和盗版内容就符合服务商的利益。如果盗版内容在“冷启动”阶段的随机推荐中更受用户欢迎,则自然会在竞争中胜出而被系统优先推荐。既然服务商通常没有刻意识别出盗版内容并优先推荐的内在动力和客观必要性,以保护著作权的名义要求服务商增加内容推荐算法透明性的正当性就要打折扣。

当然,我们并不能排除服务商因为与部分用户存在亲密的合作关系而认识到用户作品侵权的风险,但依然选择维持此类合作关系的可能性。这时候提升算法推荐的透明性,可以帮助著作权人从推荐算法的异常表象中倒推出服务商存在不合理的人为干预。不过,提升透明性也有巨大的代价。推荐算法本身是服务商的核心技术秘密,也可能包含着服务商的诸多经营策略方面的商业秘密。如果服务商要具体披露其用户浏览过程的反馈信息,则会涉及到大量用户的个人信息。法律要求服务商实时公开推荐算法的技术方案以及相关人为干预的细节,会实质损害服务商的竞争优势,并威胁到用户的合法权益。如果服务商不提供具体细节,则提升算法透明性的措施对于著作权人的帮助又相对有限。这时候,即便公众通过服务商公开的内容能够看到具体的推荐算法、程序代码、推荐池内作品内容和相应的优先等级排序(推荐权重),要确切知道这一结果是否源于不合理的人为干预,依然困难重重。因此,很难想象,基于有限的强化著作权保护的效果,决策者会实质性地牺牲服务商的利益,要求它们公布算法推荐的技术细节和完整的后台实时数据。

(三)

后台干预的应对措施

既然推荐算法背后的黑箱很难打破,是否意味着著作权人对服务商可能的帮助侵权行为无计可施呢?实际上并非如此。著作权人可以依靠“通知-删除(过滤)”程序及时从外部终止服务商的黑箱操作,来维护自己的合法权益。即著作权人通过网络服务商的搜索界面发现侵权内容后,向网络服务商发送侵权通知,要求服务商将侵权内容从服务器(包括推荐库中)移除,不再推荐该内容,并通过过滤措施保证该侵权内容不再出现。著作权人通知后,如果服务商不及时采取措施,著作权人随时可以通过搜索引擎或直接访问侵权用户页面等方式固定侵权持续的事实,然后追究服务商的帮助侵权责任。显然,算法推荐技术并未削弱“通知-删除(过滤)”机制,甚至在局部加强了这一机制。前已述及,这一系统使得著作权人能更及时地发现侵权内容,因而能够更及时地发送侵权通知。随着内容过滤技术的进步,未来著作权法将“通知-删除”程序有效地打击盗版。因此,虽然“通知-删除(过滤)”程序不能直接消除幕后黑箱,但是它还是能比直接要求服务商“拉开幕布”或“打开黑箱”的替代方案更具操作性。

结论

网络安全港规则诞生以来,网络技术飞速发展,服务商责任规则面临的改革压力与日俱增,与之相关的争议也很激烈。探讨算法推荐行为的著作权法定性时,我们需要考虑时代背景。在立法者修正现有网络服务商责任规则之前,依据服务商帮助侵权或间接侵权的法律框架分析算法推荐,依然是合理的选择。算法推荐大幅度提升了网络用户的传播能力和效率,因而增加了社会的整体福利。算法推荐技术本身并没有使得服务商能够更有效地识别或预防用户侵权行为,且服务商也没有必要主动偏好推荐侵权内容。在目前的技术背景下,服务商采用算法推荐技术本身并不当然导致其在预防用户侵权方面承担更高的注意义务。在算法推荐之外,网络技术和商业模式的演进,可能导致服务商从用户侵权行为中获得更多的利益或者能够更有效地阻止侵权内容的传播,此时决策者可能要求服务商承担更高的注意义务。不过,服务商承担此类注意义务的原因与服务商是否采用算法推荐技术没有直接关系。掌握这种模块化的分析思路,我们就能避免很多无谓的学术争议。服务商的算法推荐的确在一定程度上存在所谓的黑箱风险,著作权人难以揭露服务商可能偏好盗版的人工干预策略。不过,主动偏好推荐盗版的“黑箱操作”原本并非服务商最大化自身利益的最优或自然选择。实际上,“黑箱操作”对于著作权人的威胁并非算法推荐者特有的问题。“通知-删除(过滤)”规则依然是著作权人应对用户或服务商侵权的有效工具。在立法者放弃帮助侵权的规制框架之前,单纯因为存在算法黑箱风险而要求服务商为算法推荐行为承担更严厉的法律责任并非合理的政策选择。

原文链接

往期精彩回顾

上海市法学会官网

http://www.sls.org.cn

图片

法律工作 All-in-One
律页法律工具1
律页法律工具2
律页法律工具3
律页平台
律页法律功能1
律页法律功能2
律页法律功能3
开始免费使用