来源:上海市法学会 东方法学
发布日期:2026年04月07日


人工智能技术的非线性决策机制与多主体协同参与特征,对传统多数人侵权理论提出系统性挑战。当前法律框架下,责任认定面临三重困境:一是“算法黑箱”导致行为与结果的因果关系断裂,传统直接因果关联规则难以适用;二是开发、训练、部署等环节的多主体协作链条稀释了责任归属,民法典共同侵权的责任框架无法有效应对技术协同效应;三是算法自主性与人类干预的交互作用,使得过错认定标准发生异化,传统过错要件难以匹配技术特征。解决路径需匹配以“技术可控性”与“风险预见性”为基准的阶层式责任认定方式,构建“开发者严格责任+运营商过错推定责任+用户场景化注意义务”的差异化责任体系。在责任形态上,突破传统连带责任或按份责任的二元划分,引入动态比例责任模型,通过“技术风险内化+运营过程控制+使用场景适配”的协同机制实现公平的责任分配,为数字时代侵权法体系现代化提供理论支撑。
一、问题的提出
人工智能应否具有法律主体地位,一直处在争议之中。“主体论”和“客体论”你方唱罢我登场,不分伯仲,贯穿民法、刑法等多个部门法领域。在人工智能技术深度嵌入社会生产活动背景下,法律主体资格的争议始终是责任认定体系构建的起点。本文坚持人工智能不具备自由意志与独立财产的核心立场,否定其法律主体地位,也暂不涉及人工智能单独侵权样态情形的法律适用问题,由此将研究视域聚焦于开发、运营、使用等多元主体参与的“多数人侵权”场景。人工智能已走出实验室,跨过生产线,从专业领域走向公众认知领域。近年来,我国涉人工智能的案件数量逐年增加,根据中国裁判文书网的数据,自2018年至2024年年底,涉人工智能的裁判文书数量从77件增长至2959件。在人工智能重塑社会关系基底的数字时代,侵权责任法的理论框架正在遭遇技术理性与制度理性的双重解构。涉人工智能侵权责任确定的复杂性,主要源于人工智能生态系统的多元化,在开发者、服务者以及使用者等主体形成的链条中,任何一个环节的失误或不当行为,都可能导致侵权行为的发生。当自动驾驶系统在多传感器协同决策下导致交通事故,当生成式人工智能在语言训练与内容输出环节引发权益侵害,传统多数人侵权理论所构建的“共同过错-连带责任”范式已显现出应用失灵。这种失灵不仅源于人工智能系统自主决策过程可能的“算法黑箱”,更在于人机协同场景下行为链条的接续延伸——从数据标注工程师的初始参数设定,到算法工程师的模型优化,再到终端用户的指令输入,每个环节都可能成为侵权结果“蝴蝶效应”的触发点。这种技术特性使得民法典第1168条至第1172条基于“共同故意”“共同过失”和“分别侵权行为”构建的责任框架,在应对人工智能场景下多数人侵权时,呈现出明显的解释力匮乏。
人工智能技术深度社会化应用引发的侵权责任认定困境,本质上折射出传统侵权法教义学在应对技术异化风险时的结构性失灵。例如,仍以自动驾驶汽车因传感器故障引发交通事故为例,或是车辆感知系统因训练数据偏差误判障碍物距离,或是决策算法在紧急制动阈值设定上存在设计缺陷,又或是车主擅自改装车载计算单元则加剧了系统误判概率,法院在审理此类案件中将面临三重困境:其一,算法开发者主张“技术中立”抗辩,但深度学习模型的自主化特性使得缺陷认定标准难以锚定;其二,汽车制造商援引产品质量法第41条主张发展风险抗辩,但自动驾驶系统的持续学习能力打破了产品投入流通时的“技术水平”时间节点;其三,用户行为与系统缺陷的竞合作用导致过错比例划分陷入技术因果关系迷局。这种困境的深层根源,在于传统多数人侵权理论预设的行为人“意志可控性”与人工智能系统的“算法可解释性”之间存在的冲突。学界现有的解释呈现“路径依赖”和“激进创新”的二元对立。保守派学者试图通过扩张解释现有规范化解难题,如将算法决策或数据训练纳入“帮助侵权”的新形态;革新派则主张创设“算法监护人责任”“风险分担基金”等制度,甚至提出赋予强人工智能有限法律主体地位。这两种路径均未充分回应技术架构的特殊性——前者忽视机器学习固有的非确定性特征,后者则陷入责任财产载体的现实困境。同时,现有研究多聚焦单一责任主体,缺乏对“人机混合责任网络”的系统性解构,致使责任分配规则陷入“碎片化补丁”的窘境。鉴此,本文以风险分级的动态化视角为切入口,探讨人工智能开发者、运营者、使用者等多方主体在多数人侵权场景下的责任分配难题。
二、责任认定模型的革新:基于控制力与预见性的阶层划分
多数人侵权行为及责任理论主要有大陆法系的“多数人之债”、英美法系的“责任分担”及我国的“责任形态”等学说。民法典第1168条至第1172条分别规定了共同侵权行为、教唆帮助行为、共同危险行为、无意思联络的数人侵权行为“直接结合”和无意思联络的数人侵权行为“间接结合”的多数人侵权行为。涉人工智能多数人侵权场合,开发者、运营者、使用者等多主体间通常是“一次性买断”,鲜有合意侵权的存在空间,既不具备共同侵权共同故意或共同过失的主观要件,也不具备共同侵权行为共同性的客观要件。人工智能侵权往往是由开发者算法缺陷(如模型训练偏差)、运营者技术管理疏忽(如未设置关键词过滤机制)、使用者非预期操作(如超出预设场景的提示词输入)等独立但相互作用的环节共同导致损害。各主体间缺乏共同过错,但技术系统的非线性交互使各个行为形成不可分割的损害整体。故而,涉人工智能的多数人侵权应属多数人侵权中的分别侵权,具体而言,就是“多因一果”场景下无意思联络但间接结合的复合因果关系侵权行为。这决定了其责任认定不宜适用传统连带责任或按份责任的单一化模式。
(一)
开发者阶层的严格责任适用
1.严格责任的归责依据
科技创新与风险预防的平衡问题始终是人工智能技术治理领域最常被讨论的理论问题。人工智能系统本质上不受提前预置的概念、经验法则等因素的限制,从而使其能够选择人类完全没有考虑过或者可能会实施的解决方案,而这可能正是系统开发者所期待的。人工智能作为新型技术危险源的特殊性就在于其自主决策机制与人类行为逻辑的断裂。开发者作为算法架构的设计者与训练数据的控制者,即便未实施直接侵权行为,其创造的系统性风险已实质突破“合理注意义务”的边界——深度学习算法的非线性结构使得行为结果不可预测,即便在初始设计阶段采取合规措施,模型在迭代过程中仍可能因数据漂移或对抗样本攻击产生异化。风险社会,侵权法的重要机理之一就是要预防损害。侵权责任法是一种救济法,它调整在权利被侵害后形成的扭曲的社会关系,对受损的私权利人提供补救。无论人工智能带来多大的责任挑战,仍应恪守“对于人工智能,有损害,必有救济,必有责任”的法理,不应该基于损害是由非人类行动者(即人工智能)造成的这一理由限制受害人可能获得的赔偿。比较法上,2016年10月欧盟法律事务委员会发布的《欧盟机器人民事法律规则》,对于人工智能致害建议未来立法规定开发者的严格责任,同时匹配强制保险和赔偿基金。新近发布的《人工智能示范法3.0》第四章第一节和第二节就人工智能开发者的义务作了一般规定和特别规定,其中“应当”一词多达37处,对开发者的义务履行进行了严苛规定。
应该说,苛以人工智能开发者严格责任并非对技术创新的抑制,而是基于风险分配正义的必然选择:当开发者通过商业化部署将人工智能导入公共领域时,其本质上是在社会系统中植入了具有自主演化能力的风险源。这种风险源的潜在破坏力远超传统工业产品,例如生成式人工智能的大规模内容生产可能引发系统性版权危机。严格责任制度通过将损害成本内部化为开发成本,可倒逼开发者构建“可信AI开发体系”,例如在模型训练阶段嵌入伦理对齐模块,或通过区块链技术实现算法决策过程的全生命周期溯源,从而在技术源头实现风险防控与权益保护的再平衡。是故,施以开发者严格责任虽然表面上有抑制技术发展之虞,但实际上能增加社会对人工智能的信心,从长远看反倒会提升市场反应力度,促使科技成果的转化及技术的更新进步。
人工智能系统致害大多更接近“单边致害”而非“双边致害”,影响事故损害规模的主要是加害人一方而非受害人一方的预防投入。人工智能技术的底层架构与核心算法均由开发者阶层主导构建,其对于系统风险的控制能力与技术缺陷的预见可能性构成了严格责任适用的正当性基础。不同于传统机械产品“生产即定型”的特征,人工智能通过持续的数据训练实现自主进化,这种动态演化特性使得开发者不仅是技术架构的设计者,更是算法行为模式的“隐形监护人”。欧盟《人工智能法案》第72条确立了“高风险系统持续监测义务”,即“上市后监测系统应积极且系统地收集、记录并分析由部署方提供的或通过其他渠道获取的、关于高风险人工智能系统在其整个生命周期内的运行情况的相关数据,这些数据应能帮助提供商评估人工智能系统是否持续符合第三章第二节中规定的各项要求”,实质上承认了开发者在算法迭代过程中具备其他主体无法比拟的风险干预能力。从技术生命周期视角观察,开发者不仅掌握着算法模型的设计逻辑与训练数据的筛选权限,更通过参数调整、损失函数设定等技术手段实质影响着人工智能系统的决策边界。这种技术控制力的独占性使得开发者在多数人侵权场景中处于风险制造的核心地位。当人工智能开发者掌握如此深度技术控制权却未能建立有效的风险防控机制时,其注意义务的违反已构成严格责任的触发要件。
2.“技术可控”与“风险预见”的双重维度
值得注意的是,传统严格责任所依托的“风险全程控制”假设在人工智能侵权场合已显失灵。一方面,算法模型的自主演化特性使得开发者在系统部署后对具体侵权行为的控制力呈现指数级衰减,算法黑箱是由算法的技术性造成的,而非人为,即便通过可解释性工具进行反向推演,仍存在“解释真空区”,其直接冲击传统侵权法体系下的因果关系认定标准,若机械适用严格责任可能产生“技术原罪”式的归责困境;另一方面,开源生态中代码贡献者与商业化主体的责任边界模糊,导致“技术主导力”与“责任承担范围”的错配现象日益突出。现代人工智能开发已形成包含基础模型供应商、垂直领域调优团队、硬件适配厂商等多产业链。当发生人工智能致损时,严格责任的适用边界在诸如芯片制造商、算法开发商、系统集成商等之间变得模糊。针对上述困境,解决路径需围绕“动态合规”与“技术可控性再定义”展开,换言之,人工智能开发者严格责任的适用需建立在“技术可控性”与“风险预见性”的双重验证机制之上。就技术可控性而言,应建立算法生命周期的分段责任机制:在算法研发阶段,开发者担当人工智能的“启蒙”,具备对系统行为的实质性干预能力,例如通过对抗性测试识别模型漏洞、安装安全护栏防范越界输出等;在部署阶段,则承担持续监控与漏洞修复的延伸责任,将软件迭代过程中补丁推送的时效性纳入归责考量。此种义务并非基于买卖双方的合同权利义务关系,而是基于侵权法上的交往安全义务。这些技术措施的实施程度直接决定了人工智能系统的风险外溢概率,若开发者未采取行业内公认的风险防控标准,则应当推定其对损害后果具有可归责性。在风险预见性层面,开发者作为技术领域的专业主体,对于算法偏见、技术黑箱等固有风险的认知水平远超普通理性人标准,须在系统部署前完成“技术”和“法律”的双重评估,否则将构成对注意义务的实质性违反。虽然人工智能为人类所设计及制造,但对其将来可能之行为以及产生的后果则亦存在超越人类设想之范围。针对人工智能风险预见性难题,可引入“风险预见性类型化标准”,将人工智能系统风险划分为“已知-已知”“已知-未知”“未知-未知”三级,开发者仅对前两级风险承担严格责任。例如,生成式人工智能的版权侵权风险通常属于“已知-已知”范畴,开发者须内置版权过滤算法;而人工智能数据训练中的文化偏见可能导致歧视性输出,但开发者难以预判其在不同文化背景下的具体体现(如对少数群体的隐形偏见),可归类为“已知-未知”风险,此时开发者责任应限缩至风险提示义务;至于开发者完全不可预见的“未知-未知”风险,已有“狡猾”的智能体成功规避了现有的安全措施,能够识别安全测试并暂停不当行为,这将导致识别对人类危险算法的测试系统失效。人工智能是引领未来的战略性技术,被认为是发展新质生产力的主要阵地……考虑到人工智能产业正处于发展的初期,不宜过度加重服务提供者的义务,服务提供者应当主动积极履行合理的、可负担的注意义务。针对“未知-未知”风险型人工智能,本文建议在规模部署前先进行试点运行,待建立起应急预案机制后再投入使用,避免机械适用严格责任招来开发者群体的抵触情绪,甚至引发“寒蝉效应”。
3.产品责任的适用辨析
欧盟《缺陷产品责任指令》第13条将人工智能软件视作是一种适用无过错责任的产品,人工智能成为欧盟产品责任的适用对象。我国流行的观点也认为人工智能侵权完全可以由产品责任调整,其归责事由是产品的危险。即使当今最先进的人工智能技术的发展和应用提出了法律调整方面的巨大挑战,现行民法对其仍然是可控的。根据奥卡姆剃刀理论定律,无必要,则勿增实体。在现有侵权法框架内能够适用的情况下,没有必要创设新的法律责任。民法典侵权责任编与人工智能致损场合最相近的侵权责任类型是高度危险责任和产品责任。鉴于法律上规定的各种危险情形在细节上各不相同,无法将具有异质性的危险情形简单归纳为单一裁量范式,故第1236条尚不能发挥高度危险责任一般条款的功能。在因人工智能本身的问题而导致侵权时,适用产品责任制度可以很好解释责任人承担责任的原因及抗辩事由等。不过,由于人工智能致损侵权具有的特殊性,在适用已有产品责任制度规制时需要做两方面的改进:第一,增加人工智能产品责任的责任主体。人工智能开发者也应纳入侵权责任主体,与生产者一道承担产品责任,这样也可以督促开发者最大化地保障人工智能的安全性;第二,改进人工智能产品缺陷的举证与判断标准。人工智能产品责任中对是否存在设计缺陷应实行举证责任倒置,只要受害人从人工智能的外部行为入手证明损害是由设计方面原因造成的,就应由开发者来举证其设计是否存在缺陷。另一方面,在判断人工智能产品是否存在设计缺陷时,应增加伦理道德规范。人工智能致损适用产品责任,那么总则第179条规定的产品责任承担方式如排除妨碍、消除危险、赔偿损失,以及第1206条对产品缺陷的补救措施如警示、召回等就都可以适用于人工智能致损侵权场合。
(二)
运营商阶层的过错推定责任
人工智能运营商阶层适用过错推定责任源于其角色定位与技术控制力的特殊性。相较于过错责任,过错推定通过举证责任倒置减轻了受害人的举证负担,符合人工智能运行的隐蔽性、技术缺陷难以直接溯源的特点;相较于无过错责任,过错推定责任仍以过错为基础,避免了完全脱离主观过错的严苛性。不同于开发者阶层对技术底层架构的全链条控制,运营商阶层更侧重于系统部署后的运行管理,责任边界应与其对系统运行环境、用户交互场景等外部变量的可控性相匹配,避免因“算法黑箱”的客观存在导致责任过度扩张。
在人工智能场景下,作为技术设施的实际控制者与利益获得者的运营商,对数据流动全程掌控,一旦发生人工智能致损,普通受害人难以穿透技术壁垒完成举证。现代风险社会中的技术优势方应当承担更严格的行为注意义务。民法典第1165条第2款虽确立了过错推定责任的法定主义原则,要求其适用须以法律明文规定为前提,但其适用边界仍可通过法解释路径予以缓和。例如,参照第1198条安全保障义务条款,运营商作为网络空间的管理者,其注意义务可被解释为包含技术性安全保障措施,若未尽到合理防护义务导致用户权益受损,可推定其过错。也可借鉴德国法中的“表见证明”规则,当用户完成初步证明(如损害事实与运营商行为的关联性),即触发运营商的反证条件,避免僵化适用“法律明文规定”要件。故而过错推定责任原则的引入具有制度正当性。
运营商过错推定的基础源于其对系统风险的控制。以自动驾驶为例,运营商不仅掌握算法数据的标准,更通过OTA升级持续介入系统决策逻辑。当多模块协同失误导致事故时,受害方往往仅能证明损害结果与算法输出的关联性,却难以追溯具体模块的技术缺陷。过错推定是风险社会中保护个人法益的一个利器。此时应依据民法典第1165条第2款,要求运营商自证其已尽到必要注意义务。具体适用中存在三类典型推定场景:其一为数据管理漏洞的累积性过错。人工智能侵权的因果关系具有间接性与累积性特征,当个人数据泄露引发二次侵权的场合,应推定运营商未履行数据安全法第27条规定的分级保护义务;其二为风险防控机制的缺失。以医疗人工智能误诊为例,“医疗AI决策-医生监督复查”是医疗的常见形态,人类有意义的参与将成为监管底线,运营商若未部署诊断结果的人类医生复核系统,即可推定其过错与损害结果存在因果关系;其三为算法设计缺陷的持续性过错。如推荐算法引发群体性歧视时,运营商需要证明其已建立动态伦理审查机制。因此,运营商需构建三阶审查标准:基础层考查是否符合国家强制技术标准;中间层评估是否建立风险预警响应体系;最高层则审查是否履行技术伦理审查义务。需警惕的是,过错推定责任的适用可能会引发新的失衡,运营商可能通过技术标准垄断规避审查,或以商业秘密为由拒绝披露关键数据。对此,应建立“有限度的证据开示制度”,允许法院依职权调取涉及公共安全的核心技术文档,并引入第三方技术专家辅助审查。
(三)
用户阶层的场景化注意义务
技术认知标准本身就蕴藏着侵权法领域的过错责任标准。人工智能技术的场景化应用特征决定了用户注意义务的差异化构造,需要法律对用户阶层的注意义务进行精细化分层设计。在多数人侵权责任框架下,用户阶层的注意义务应当以实际控制力为基准,结合技术风险分配正义与“最低成本规避者”原则,构建“专业用户高标准义务-普通用户底线义务”的双阶层义务体系。这种分层既符合“技术可控性决定责任强度”的法理逻辑,也契合“风险预防优先于事后追责”的侵权法改革方向。
1.专业用户的复合型注意义务
专业用户群体(如医疗机构、金融机构、自动驾驶测试机构等)因其技术掌控能力与行业准入资质的双重属性,需履行算法输出复核、系统风险预判、应急接管等复合型义务。
第一,算法输出的实质性审查义务。在医疗人工智能场景中,人类的参与仍是必要的,执业医生对机器人诊疗方案的复核不能停留于形式审查,而需结合患者个体体征、临床经验及医学伦理规范等进行二次验证。必要的人机协作还有助于提升医疗的准确率和效率,例如,在对淋巴细胞的X射线进行图像诊断分析方面,基于人工智能的分析方式的错误率为7.5%,人类病理学家的错误率是3.5%,人机合作的错误率则降至0.5%。
第二,必要的风险管控义务。专业用户需要预先设定系统运行偏差的识别标准,并建立起人工紧急干预的权限保留机制(如金融交易场景中必须确保操作人员对智能决策的强制中止)。此类义务的履行应纳入行业资质认证体系,搭建起技术能力与法律责任联动评价模型。
2.普通消费者的合理行为边界
对于家用智能设备使用者(如语音助手、扫地机器人用户等),法律规制应聚焦于“明显滥用行为禁止”的底线标准,避免因技术认知鸿沟导致过重的注意义务负担。
第一,使用行为的可预见性标准。普通用户仅需在常识层面判断指令的合法性,例如明知向智能音箱输入“伪造交通事故理赔指南”等违法指令仍持续操作,即构成注意义务违反。但无需苛求其对算法黑箱、数据训练缺陷等专业问题具有识别能力。
第二,产品缺陷的注意义务豁免。当家用设备因开发者或运营商未设置基础安全协议(如未屏蔽暴力破解指令)导致损害发生时,消费者可援引“合理使用推定”进行抗辩。此处的合理性判断需结合产品说明书警示范围、社会普遍认知水平等进行综合认定。
至于用户分层义务的搭建,在涉人工智能产品销售方面可以建立“人工智能设备分级目录”囊库,依据系统智能化水平、可能影响后果的严重程度、用户专业资质等划分义务等级,开展对口销售;在侵权归责层面可对“过错推定原则”进行差异化适用,易言之,针对专业用户采取“过错客观化”认定标准,只要违反行业技术规范即推定过错成立,而针对普通消费者则坚持“主观过错+客观损害”的二元要件,侧重考察行为本身的显性违法特征。
三、责任形式的重构:从连带责任到按份责任的动态转换
(一)
连带责任的限制适用
法律和技术的互动关系始终是现代法学研究的核心内容,特别是在人工智能技术领域。在目前人工智能深度重构社会关系的背景下,涉人工智能多数人侵权责任形式的认定需摆脱既有责任形态的路径依赖,抑制连带责任的泛化适用,转向以技术理性为基准的精细化责任分配。本文主张将连带责任的适用场域限于开发者与运营商存在明示共谋或系统性合作的特殊情形,其法理基础根植于风险控制能力与过错程度的对称性要求,亦体现了技术中立原则下责任配置的谦抑性。
第一,连带责任的适用须以共同过错的实质性关联为前提。根据民法典第1168条确立的共同侵权规则,连带责任的核心构成要件在于行为人之间存在主观意思联络与客观行为关联的双重契合。涉人工智能的多人侵权,其系统决策往往呈现多主体参与的链式反应特征,若简单沿用第1168条关于共同侵权的抽象规定,容易导致技术开发端、产品运营端及终端使用端主体间的责任边界模糊化,易引发责任泛化的风险。同时,由于“算法黑箱”的客观存在,若开发者与运营商仅因技术分工形成链式责任关系,而缺乏对侵权风险的共同认知和协同追求,则不宜直接适用连带责任。例如,在自动驾驶领域,硬件厂商与算法开发商虽然存在技术接口的物理连接,但若并未就传感器数据缺陷的隐瞒达成合意,其行为关联性仅体现为技术标准的客观耦合,与第1169条规定的教唆、帮助行为存在本质区别。此时,责任形式的认定应当遵循“技术中立”原则,避免将商业合作中的默示默契上升为法律意义上的意思联络。
第二,明示共谋的认定需构建高度盖然性的证明标准。明示共谋是以双方乃至多方共同合意、意思联络为基础而达成的反竞争行为,对于明示共谋行为,普遍通过垄断协议制度进行规制。明示共谋应严格限定于开发者与运营商通过书面协议、数据共享备忘录或联合决策等显性方式,对算法侵权后果形成共同故意的情形。例如,在智能定价算法场景中,若开发者根据运营商要求调整参数阈值以实现价格垄断,此类行为已突破技术开发的中立性边界,构成反垄断法第19条禁止的特殊横向垄断协议。此时,侵权行为的“分工协作性”与“结果协作性”形成完整的证据链条,符合民法典第1168条“共同实施侵权行为”的本质要求,连带责任的适用具有规范依据。
第三,系统性合作关系的认定需引入技术审计与过程性证据审查规则,即穿透式审查。当开发者与运营商虽无明确的共谋表示,但通过持续性数据交互、缺陷信息共享或形成深度技术耦合时,可参照新公司法第23条第2款关于法人人格否认的裁判逻辑,从组织体混同视角认定责任连带。例如在自动驾驶领域,若硬件制造商长期向算法开发商隐瞒传感器的缺陷数据,而开发商在明知存在系统可靠性漏洞的情形下仍推进软件迭代,此时双方通过技术接口形成的隐蔽协作网络实质上构成对产品安全注意义务的协同违反。
第四,连带责任的程序保障需建立技术事实查明的特殊机制。为防止裁判者滥用自由裁量权扩张连带责任的范围,应建立三重保障机制:其一,要求原告就共谋合意或系统性协作承担初步举证证明责任,避免举证责任倒置对技术创新的抑制效应;其二,对于涉及算法商业秘密的责任信息认定,可参照民事诉讼法第71条之规定,采取证据开示令与保密承诺相结合的方式,实现侵权救济与商业秘密保护的平衡;其三,构建技术调查官参与的专家辅助制度,对算法运行逻辑与技术合作模式进行专业论证,“术业有专攻”,防止法律判断的技术认知偏差。
(二)
按份责任的量化依据
在涉人工智能多数人侵权的归责路径选择中,由于算法黑箱等的存在导致具体侵权人难以识别时,侵权法中的责任聚合机制面临适用上的挑战。域外学说主张通过拟制法人化的责任整合体来实现诉讼经济,即将所有可能造成伤害的人视作团队作为一个整体承担责任,就像使其具有法人资格一样。该方案虽然解决了受害人“整体起诉”的诉讼策略选择,却未能回应在开发者、运营商与用户之间的责任比例的量化需求。基于此,本文引入“动态比例责任”理论对涉人工智能多数人侵权场合下的责任聚合机制进行范式重构。本文所指“动态比例责任”,是指在多方参与场景下,通过综合分析各主体的过错程度、技术可控性及因果关联度,动态划分责任承担的比例,避免机械适用传统“全有或全无”的归责模式。
通过建立技术开发、运营维护与应用场景的多维度评估模型,将三类主体纳入具有推定连带性的责任共同体,其责任承担比例应根据算法可解释性程度、数据控制权以及用户操作自主性等进行动态评估,最终形成兼顾诉讼便利性与责任公平性的归责逻辑。
1.动态比例责任的必要性证成
涉人工智能侵权责任的多主体性并非简单的人数叠加,而是技术要素与风险传导的有机整合。开发者、数据提供方及运营商的行为在时间维度上呈现非对称性介入,即在人工智能侵权中,开发者在技术设计阶段(如算法训练)可能埋下风险,数据提供方在数据收集阶段可能涉及非法或处理个人信息,而运营商在实际部署或使用人工智能时可能引发具体侵权行为,三者行为介入的时间点分散且行为关联性复杂;在空间维度上构成非线性因果关系,社会中的形式理性法将社会生活简化并整合为具有内在逻辑的法律编码,使人们更容易把握行为与后果之间的因果关系,进而建立起规范期望,而人工智能时代一个重要的改变就是不再需要对信息进行简化,利用技术手段将海量信息纳入处理范畴,确保法律制度体系的确定性就不再依赖于线性因果推断的确定性。人工智能侵权中开发者、数据提供方及运营商的行为因算法黑箱、数据交互与算法自主性等多因素动态交织,导致其因果关系呈现多向、间接且难以线性追溯的复杂形态。若固守传统按份责任的“过错程度-损害结果”二元框架,将导致责任划分陷入“技术黑箱”与“法律拟制”的双重困境。而动态比例责任可以建立起“技术可控性”与“风险预见性”的复合评价标准:既考察各主体对算法系统的基础性影响(如代码设计中的固化缺陷),亦评估其对损害发生的动态控制能力(如数据污染中的实时干预可能性)。此等双重维度的考察,恰与侵权法“风险归责”的现代转向相呼应。
2.技术解释工具与法律评价的协同
数字技术的应用不应仅出于能否提升效率的工具理性逻辑,还应考虑真实情境中人们的价值理念和感知认知。破解人工智能科技应用对责任量化的遮蔽,需构建可解释性技术与法律要件之间的转译路径,结合论证技术归因与规范裁量,来实现技术决策与法律评价的耦合。通过引入算法可解释性工具(如LIME、SHAP值分析等),可将人工智能深度学习的决策过程解构为权重特征分布,进而映射出技术主体的行为贡献度。例如,智能汽车配备记载车辆运行状况的“黑匣子”可用来判断事故发生时汽车是处于自动驾驶还是人工驾驶状态,以此作为确立侵权责任的基础;在自动驾驶系统误判场合中,根据EDR行车记录仪对事故发生之前自动驾驶辅助系统工作状态的记录,可以对自动驾驶汽车的自主性状态进行监测。进而通过反事实推理可分离传感器数据缺陷、路径规划算法偏差及地图更新滞后等不同技术环节的致损权重。此种技术解析并非直接替代法律判断,而是为“过错程度”“因果关系强度”等规范性概念的具象化提供实证基础,使得责任比例的分配突破主观经验主义的局限,形成“技术解释-法律评价”的双层论证结构。
3.责任要素的三维解构框架
动态比例责任作为涉人工智能侵权场景的归责理论,其判断标准不应是刚性的、封闭式的,而应表现为多种因素综合考量的弹性判断框架。在涉人工智能责任规范中,具体的考量因素大致散布在技术层、数据层和应用层三个层面,动态比例责任的量化随之需建立起“技术层-数据层-应用层”的三维分析模型。
首先,技术层的固有风险权重。技术层的固有风险评估应聚焦于算法设计的结构性缺陷及其对系统稳定性的潜在影响。当开发者在模型架构选择中采用未经充分验证的神经网络类型或在设计阶段未嵌入可解释性机制(如缺乏注意力可视化模块),该类技术在运行过程中构成了风险传导的底层路径。此类缺陷(或者说贡献度)虽可能不会直接引发损害,但显著提高了系统失控的盖然性,形成的风险积累效应在责任比例中体现为“基础风险系数”的加权,其权重计算需结合模型复杂度、验证完备性及可追溯性等维度进行动态量化。私法上决定性的是受害人视角。在人工智能技术治理中,尽管开发者面临算法黑箱、系统失控等技术控制真空,但私法责任认定的核心逻辑始终围绕受害人视角展开。从风险分配正义原则看,开发者作为技术风险源的创造者,其技术选择往往伴随商业收益,而风险传导的不可控性已突破传统过错责任的框架。法律天平向受害人倾斜的正当性,既源于开发者对技术复杂性的专业掌控优势,也体现为侵权法中“风险控制者担责”的衡平原则——当开发者通过技术迭代持续获得市场红利时,其风险防范义务不应被技术中立性借口消解。因此,这种责任分配机制本质上是对技术权力不对称关系的矫正,而非否定技术创新本身。
其次,数据层的动态污染路径。数据层动态污染的责任量化应突破传统侵权法“行为-损害”的线性归责逻辑,转向“污染源活性-算法渗透度”的二元动态评价体系。人工智能开发主体与数据运营商作为数据生态的关键节点,其法律责任需根据污染源的生成机制进行差异化界定:初始数据瑕疵属于技术中性范畴,应遵循“技术开发者注意义务”原则,审查开发主体是否尽到数据标注规则的技术合理性验证义务,当人工智能应用过程中的语义偏移源于标注标准缺乏语言学规范或行业共识时,开发方的“技术注意义务违反”即构成责任起点;而数据使用过程中的污染累积则涉及运营主体的持续性过失,需通过“污染活性持续时间”与“模型渗透深度”构建动态归责模型,着重考察运营主体的动态监测能力,若未建立数据漂移预警机制或未实施数据版本回溯制度,其放任污染扩散的消极作为将导致责任比例随污染活性的持续时间指数级增长。这种责任划分方式避免了将数据责任简单等同于数据供给量的机械计算。
最后,应用层的风险控制断层。在人工智能场景下,应用层的风险控制断层折射出技术迭代的加速度与法律规制的缓释性之间的失衡。算法模型的快速升级不断催生如自主决策失误、深度伪造等新型风险形态,而传统法律规范仍固守基于机械因果关系和确定行为边界的归责逻辑,难以适应技术风险的系统性、扩散性特征。在涉人工智能侵权责任领域,保持侵权法规范的稳定性以维护法秩序的安定性无可厚非,但现行侵权法规范也不应一直沉睡在既有的教义学框架中。在捉襟见肘的法律适用难以有效应对人工智能的运用所衍生出的诸多隐忧的情形下,应以最小化与程序化为原则,对法律进行适度的改造,但是也并非斗榫合缝的法条设计。面对自动驾驶系统决策链、医疗AI合规审查的梯度适配等难题,需在保持法律安定性的前提下,通过解释论层面的动态调试与归责原则的弹性解释,最终形成契合人工智能特征的裁判方法。运营商的预见性管理需超越“算法黑箱”思维,通过可解释性设计、数据溯源机制和实时风险预警系统,解构算法决策链的隐性关联,降低不可知领域的认知权重,构建起动态风险评估模型。例如,参考工业建设场景中的“泡沫混凝土减震层”的物理缓冲原理,技术架构应嵌入多层级的纠错机制:底层协议需预设异常数据过滤规则,中间层需部署对抗性检测算法,应用层则需通过用户行为画像实现风险的梯度式管理。这种“技术断层”并非物理隔离,而是通过责任要素的量化分配形成风险缓冲带,使运营商在预见性管理中承担技术缺陷时的“穿透式”责任,而非全链条的无限连带责任。使用者的注意义务则需从被动合规转向主动协同治理。根据“断层山”形成机理中“水平移动与垂直位移的耦合效应”,使用者在数据输入、指令下达等环节的注意义务与技术系统的风险扩散敞口动态匹配。例如,在自动驾驶场景中,用户对系统提示的响应速度、对环节感知盲区的认知程度,均可通过车载传感器数据与操作日志形成责任梯度(贡献度)的证据链。此时,运营商的预见性管理与使用者的注意义务构成“双断层”控制体系:前者通过技术冗余吸收系统性风险,后者通过行为约束限制个体性风险,最终实现责任形式从连带责任到按份责任的弹性转换。
(三)
动态比例责任的量化
比例责任在我国虽属较陌生的规则,然也并非“空里之风”,侵权责任法第67条及《最高人民法院关于审理环境侵权责任纠纷案件适用法律若干问题的解释》第4条关于环境污染责任的规定就是最好的解答。建立在动态比例责任基础上的动态评估指标体系,使诸要素间协动作用形成的综合力“站在”法律评价框架的合理性基础之上,通过基础评价和原则性示例的轮廓,以求最大程度地接近“自己行为自己负责”的精神。涉人工智能多数人侵权各方责任量化的过程中,动态评估指标体系的建立首先应结合技术特征与侵权行为类型,将责任主体分为算法开发者、数据运营者、产品使用者等不同层级,根据其行为对损害结果的贡献度设定基础权重值;其次需引入动态修正系数,参考依据冲量公式计算出来的高空抛物危险区间内每层住户的致害可能性,结合过错程度、损害后果、技术可控性等因素,通过加权算法形成阶梯式的责任比例。例如在医疗AI误诊场景中,可设置算法偏差度(占45%)、数据标注误差率(占25%)、操作失误率(占30%)的三元动态模型,且可随着证据链的完善实时调整比例系数。具体的操作应分阶段实施:初期一般采用预设比例框架划定责任区间,中期通过司法鉴定确定技术过错的具体权重,后期建立责任比例的弹性调整机制。例如在自动驾驶事故中,可依据传感器的故障时长(每秒递增0.5%责任)、人类接管响应速度(每延迟1秒增加3%责任)等量化指标,结合民法典第1172条的按份责任规则,建立起“基础比例+动态修正”的双轨制计算公式。需要注意的是,技术参数的司法采信应经过专家论证和必要的举证质证程序,避免由于“算法黑箱”的存在导致单纯依赖算法导致的责任认定失衡。
人工智能场景下确立比例责任的量化依据,本质上是对侵权法“原因力”与“过错程度”双重要素作出的技术化延伸。从原因力维度看,人工智能系统运行涉及开发者代码编写、运营商数据管理、用户指令输入等多个环节,每个主体的行为对损害结果的发生均产生不同程度的作用。例如,自动驾驶事故中,算法设计缺陷可能占60%的原因力,运营商未及时更新地图数据占30%,用户违规操作占10%,这种基于技术分析的因果关系量化,可通过司法鉴定、技术专家证言等方式固定。从过错程度维度,不同主体的专业能力与风险控制义务存在显著差异,开发者作为技术创造者应承担更高标准的注意义务,其过错认定需结合行业前沿技术水平;运营商作为服务管理者,过错判断应以服务协议与行业规范为基准;用户过错则依据场景化注意义务确定。通过将行为原因力与过错程度进行权重配比,构建起量化比例责任的核心框架,既符合侵权法的归责本质,也为责任划分提供了可操作的客观标准。
结语
人类正在经历着逐渐加速的发展曲线而不断接触未来,人工智能技术已突破专业壁垒,开始以智能终端、算法服务等形式实现“飞入寻常百姓家”的大众化渗透。在人工智能技术深度介入社会分工体系的背景下,多数人侵权责任形态的演变呈现出与传统侵权场景截然不同的复杂性。本文通过梳理涉人工智能侵权场景下行为关联性、过错程度与损害结果之间的动态联结,提出以“技术可控性”与“风险预见性”作为责任划分的核心标尺。其核心在于突破现有侵权法的主体边界,构建分层递进的责任认定框架。开发者阶层作为智能系统的“技术基因塑造者”,应承担严格责任。由数据投喂等构成的技术控制力,使开发者对系统运行逻辑具有天然的主导权,其责任边界应延伸至算法设计缺陷、训练数据偏差等源头性风险。通过引入“算法透明度义务”与“系统审计标准”,可将产品责任框架再延伸至算法研究领域,使深度学习系统的不可解释性不再成为责任豁免的天然屏障;运营商阶层作为人机交互的“技术中介”,需承担过错推定责任。平台运营者对算法推荐机制、用户行为数据的动态掌控,使其在侵权结果中往往存在混合过错。通过动态权重分析平衡技术控制力与行为注意义务,既可避免连带责任对技术开发者的过度苛责,又能防止技术使用者滥用“技术中立”抗辩;用户阶层作为技术应用的“场景化主体”,应履行差异化注意义务。终端用户对智能系统功能的认知局限与操作偏差,需通过场景化规则实现责任分担。例如,在医疗AI辅助诊断场景中,专业医师对算法建议的审慎核查义务则需优先于普通用户。这种建立在智能系统自主决策基础上的责任认定体系,既突破了现有共同侵权理论的静态框架,亦未背离侵权法填补损害的基本功能。
“不谋万世者,不足以谋一时”,法治不仅仅要考虑当下,也要考虑未来。未来研究还需着重破解人机责任边界的模糊地带,特别是在生成式人工智能创造内容引发的复合型侵权场景中,如何构建“创作-传播-获利”全链条责任追踪机制将成为关键课题。随着脑机接口、自动驾驶等技术的大范围普及,多数人侵权的外延可能突破物理时空限制,向虚拟空间与生物智能领域延伸,这要求责任认定模型具备更强的延展性与适应性。鉴于笔者专业水平所限,上述延伸性议题尚存研究阈界,其学理纵深与实证解析有待学界同仁勠力同心以拓新域。
“人类一思考,上帝就发笑”,在未来也许会表现为人工智能在发笑,但我们却不能因此就放弃思考。不可否认,法律制度的完善永远滞后于技术革新,但通过保持法解释学的开放性与包容性,我们完全可以在坚守侵权法核心价值的同时,为人工智能时代的责任体系锻造出兼具稳定性与前瞻性的制度框架。

往期精彩回顾
上海市法学会官网