律页科技 Logo
首页
解决方案
效能律所私有AI中枢AI 智能作业系统
品牌AI影响力升级数字人代运营
资源观点
资源文书资源法律导航
观点法律社区律页声音
有关律页
团队介绍加入律页联系律页
律页科技 Logo
首页
律页

产品与解决方案

首页律所私有AI中枢AI 智能作业系统AI 影响力升级 (GEO)AI数字人代运营

资源与观点

文书资源法律导航法律社区律页声音

关于律页

团队介绍加入律页联系律页

用户协议

数据使用声明Cookie使用政策文档发布协议隐私条款用户服务条款

关注我们

律页公众号

律页公众号

律页微博

律页微博

2023-2026 北京律页网络科技有限公司版权所有ICP经营许可 京B2-20254773京ICP备2023007930号-4京公网安备11010502056436号
北京律页网络科技有限公司 联系方式: 400-966-9558地址: 北京市朝阳区新华科技大厦13层1316室
全部问题
话题
话题
标签
榜单

于涵|论L3级自动驾驶汽车侵权责任的可预见性规则

案例分析
专业人士
发表于 04 月 28 日修改于 04 月 28 日

来源:上海市法学会 东方法学

发布日期:2026年04月28日    


L3级自动驾驶技术产生人机共驾新场景以及接管过程,衍生出算法自主决策与人类理性瑕疵的双重风险。当出现机动车道路交通事故时,除了产品责任,还需要构建与L3技术相适应的一般侵权责任认定标准。根据人工智能算法的概率预测特性,将“理性人预见”标准解构为生产者的系统安全设计义务、驾驶员的情境监督义务,实现过错与因果关系要件的类型化评价。在识别风险因素基础上,结合L3技术特征分层认定注意义务,在信任因素下确立因果关系认定标准,建立L3级接管过程中驾驶员侵权责任的可预见性标准评价模型。按照最具风险控制效率者承担责任的基础原理,搭建L3级自动驾驶汽车侵权责任的事实要素判断框架。

引言

根据汽车工业通行的分类标准,自动驾驶车辆共可分为六个等级(L0-L5)。2025年9月12日,工业和信息化部联合其他七部门共同印发《关于汽车行业稳增长工作方案(2025—2026年)的通知》,明确提出了“有条件批准L3级车型生产准入”的举措,这标志着L3级自动驾驶汽车产业进入有条件生产准入的商业化预备阶段,为产业规模化落地奠定了政策基础。该政策在为智能网联汽车产业注入发展动能的同时,也对未来机动车交通事故侵权责任的认定标准形成了全新的适用场景。可预见性规则在侵权法中发挥了至关重要的作用,著名法学家埃德格顿强调,在故意侵权之外,可预见性是支配案件判断最具影响力的因素。在L3级自动驾驶汽车发生交通事故时,除了产品责任情形以外,如何在更普遍的情况下作出责任的分配,并在数智社会明确可预见性标准,成为亟待法治回应的问题。

一、问题提出

传统机动车交通事故侵权责任认定框架以人类驾驶员过错和汽车厂商产品责任为核心。其制度预设与L3级自动驾驶“人机共驾”的技术特征存在根本性冲突,导致实践中相关主体推诿责任。当车辆达到L3级自动驾驶时,可以由自动驾驶系统在掌握控制权期间完全操控车辆,人类驾驶员只需在特定情形下接受系统发出的接管请求(Takeover Request,TOR)后接管车辆,进而对当前交通状况作出决策与应对。道路交通属典型高风险活动领域,在L3级自动驾驶场景中,车辆控制权限的动态切换将进一步叠加额外风险。在控制权转移期间,责任主体的归责容易陷入模糊,在系统主动发起接管请求与驾驶员被动响应的时间间隙内,无法清晰界定人机双方的责任边界;此外,人机交互的固有属性决定了反应时效差的客观存在,自动驾驶系统发出接管预警后,人类驾驶员的响应延迟可能因信息传递偏差、驾驶员注意力未达合理标准等因素进一步放大风险。在此类复合风险交织的场景下,一旦发生道路交通事故,传统司法实践将难以应对新技术带来的法律问题。

第一,道路交通安全法的理解适用问题。我国道路交通安全法第76条确立了机动车之间过错责任与机动车对行人无过错责任的二元结构,其法理依据为人类驾驶员具有平等的主体地位及可归责性。然而,L3级自动驾驶系统的人机共驾模式从根本上动摇了这一基础。当自动驾驶系统与人类驾驶员共同参与驾驶任务时,系统通过算法实现的驾驶行为无法纳入传统主观过错评价体系,而人类驾驶员在系统运行期间的注意义务又缺乏明确的边界,因此,这种主体地位变化使得道路交通安全法建立在平等主体基础上的过错责任原则失去适用前提。在机动车对非机动车、行人的责任认定方面,道路交通安全法第76条第2款的无过错责任规则同样面临解释上的难题。该规则以机动车属于“危险源”为理论基础。但在自动驾驶场景下,当事故源于算法缺陷或系统故障时,传统的危险源理论难以直接适用。更关键的是,自动驾驶系统算法上的不可解释性使得因果关系认定极为困难,受害人往往难以证明系统行为与损害结果之间的因果联系。

第二,产品责任无法妥善解决数智社会的风险分配难题。有观点认为,自动驾驶汽车从本质上来说仍然属于产品,在L3级别的自动驾驶中汽车运行实际上由系统操控,自动驾驶汽车发生事故,最有可能的原因就是系统缺陷或者漏洞,而非使用人有过错。因此由自动驾驶汽车的制造商承担产品责任合情合理。该观点同时还认为,适用属于严格责任的产品责任可以有效减轻被侵权人证明责任的压力。但是,在产品责任诉讼中,对于受害人来说,证明产品存在缺陷以及缺陷与损害之间的因果关系既困难又昂贵,其求偿的便利性远低于机动车道路交通事故责任。在产品责任中,由于目前尚没有出台针对自动驾驶汽车的国家及行业标准,对“不合理危险”的判断主要存在“消费者合理期待”与“风险效益测试”两套标准。前者中,生产者仅对可预见的危险负责,而可预见性本就是判断注意义务的核心标准。被侵权人仍需证明存在合理期待,但一般人很难充分了解自动驾驶系统的运行机制,未必会形成对产品设计安全的合理期待。后者“风险效益”标准则是一种依赖高质量数据积累与有效评估模型的量化分析方式,其要求被侵权人证明存在更加安全的算法,提供效益大于风险的替代设计方案。受害者需要先明晰事故发生的原因才有可能提出此类方案,而这一点恰是受害者难以做到的。

第三,L3级自动驾驶汽车一般侵权责任的认定问题。无过错责任与过错推定责任尽管在设想层面似有利于填补被侵权人的损失,减轻其证明责任,提供更为及时与充分的法律救济。但实际上,如果对其不加限制地适用,不仅难以实现保护被侵权人的目的,还会从制度层面遏制技术创新,无益于整个社会的发展。真正决定人工智能未来的,或许并非当前的行业巨头,很可能是目前尚籍籍无名的小公司。面对自动驾驶带来的新挑战,现有侵权法已然具有足够的弹性和解释空间,除非自动驾驶引发异常危险,否则不宜轻易创设新的归责原则,以至引入严格责任从而对技术创新造成过度抑制和破坏。过错责任最符合私法自治的理念,自由的实现根植于自由意志,而自由意志又以多元选择与认知能力为前提。在多元选择中,自由得以扩展。适用过错责任可以最大限度地保障自动驾驶的各方参与者选择的自由,也可以在激励创新与规范发展间实现平衡。有这样一种担心,认为自动驾驶侵权若以过错责任为归责原则,被侵权人会难以证明自动驾驶生产者存在主观过错。但是现代侵权法对过错的认定早已不再局限于主观心理状态,而是表现为对客观注意义务的违反。法律可以通过确立并细化自动驾驶服务方在系统安全设计、道路测试验证、人机交互机制等方面的具体行为标准,构建出一套客观的可评判依据。

自动驾驶汽车侵权责任争议的根源在于,当不确定的技术风险引发确定的损害事实时,法律需要建立一套科学合理的行为评价标准和责任分配模式,并符合社会普遍的正义观念以及动态演进的社会现实。现有研究多聚焦于事故发生后的宏观法律效果与社会影响,却未能回应风险本身的定性与评价问题。为解决上述问题,应当引入可预见性规则并明确适用标准。

二、L3级自动驾驶汽车侵权责任适用可预见性规则的理论证成

可预见性规则是英美侵权法体系中的一项基石性原则,核心在于限定行为人仅对可合理预见的损害承担赔偿责任。所谓“可预见性”,是指某一损害是否落入行为人的预见范围,此为判定责任的关键。这项规则自1831年Illidge v. Goodwin案提出原理,并在1961年英国Overseas Tankship Ltd. v. Morts Dock and Engineering Co. Ltd.案予以明确,引入了“理性人预见”(the foresight of the reasonable man)这一判断标准。在我国现有法律体系中虽未直接对可预见性规则作出规定,但其核心原理已通过过错责任、因果关系认定及司法实践得到了充分体现。法律制度中的规则,皆有其法理根基与价值内核。在自动驾驶侵权责任认定中,可预见性规则可以通过限定不同主体的合理预见范围来构建责任分配框架,实现技术创新保障与公共安全维护之间的平衡。

(一)

可预见性规则的适用场景分析

在智能社会的背景下,重新审视可预见性规则的适用有极大的理论价值与实践意义。从风险样态上看,L3级自动驾驶系统人机共驾的特性所创造的风险更多的是系统风险而非具体的危险。但此处的风险不能直接等同于危险。对此,首先应准确区分风险与危险的内涵,法律语境中的“危险”特指具体、紧迫且相对确定的威胁,始终是法秩序关注的核心议题,其规制逻辑贯穿于损害预防与权益救济的全过程。而“风险”作为独立法律概念的历史却并不久远,“风险有着很久的过去,但仅有很短的历史。”其最初出现在航海贸易的相关文献中,直至16世纪英国等地的海上贸易体系逐步成熟,风险一词才正式进入法律体系,成为一个法律概念。从性质上看,风险是中性的,代表一种面向未来的不确定性,而危险则是紧迫且相对具体的,是一种需要法秩序即刻应对的状态。风险有转换成危险的可能,但不能仅以此为依据就对高风险的活动一概适用更加严格的法律责任。自动驾驶所产生的风险从本质上而言属于一种在系统运行中潜在的偏差可能性。比如,在自动驾驶系统发出接管请求后,直到完成控制权转移的过程中,风险主要表现为系统感知局限、驾驶员认知延迟以及人机交互失效等多重因素共同作用下的不确定性。可预见性规则可以依据风险场景的不同进行类型化适用,就系统设计层面,研发者应当预见到人类的一般认知水平与操作状态,并通过设定合理的人机交互机制来降低操作上的风险。而人类驾驶员则需要预见到自动驾驶系统性能上的边界,不能以完全信赖驾驶系统为理由逃避本应当承担的监督义务与对道路交通的观察义务。因此,对于仅处于可能性层面的技术风险,宜通过可预见性规则来确立合理的注意义务标准。只有当风险转化为现实的、具体的危险状态时才应考虑适用侵权责任加以规则。

(二)

可预见性规则符合产业发展和风险分担的价值导向

可预见性规则是侵权责任法的核心规制工具,“除去有关侵权人存在故意的场合,没有哪一个理由能像可预见性这样影响着我们对事件的判断。”从法经济学的视角来看,可预见性规则可以通过汉德公式的成本效益分析将风险防控的义务分配给最具有控制力的主体,从而实现整个社会的经济效益最大化。从规范层面来看,侵权责任成立的四要件中,行为与损害属于事实状态,无需可预见规则的判断。但是在过错与因果关系的判断上则存在很大的适用空间。可预见规则可以通过对合理注意义务的分配,实现社会安全秩序与科技创新之间的平衡。

第一,合理分配损害,保障行为自由。从赔偿范围来看,可预见性规则可以通过缓和完全损害赔偿原则来实现法益保护与行动自由的平衡。承担事故责任的一方,无论是自动驾驶生产者还是使用者,其赔偿范围可以被限定在合理预见的范围内。可预见性规则不仅界定了责任范围,更在事前指引着行为选择,行为人只需要在预见范围之内采取措施防止损害发生,这为新技术的开发应用留下了空间。对于遭受损害的一方,只要该损害属于事故责任主体应当预见的类型,即便损害程度超出预期,仍可以就该损害得到赔偿,不至因技术复杂、证明责任困难、多主体推诿责任等情形陷入维权困境。受害人一方的绝对权利、利益与可能的加害人一方之行为自由在法律价值上同等重要,二者不可偏废。

第二,实现行为风险的科学分配。行为与风险相伴而生,侵权法无法消弭风险,只能通过制度安排将风险进行分散,而其中的关键在于让风险的承担与控制力相匹配。可预见性规则通过将风险分配给最有能力也最有机会使损害最小化的人来实现风险的高效分配。在自动驾驶场景中,自动驾驶系统的研发者与生产商往往对风险具有最直接高效的控制力,而在人机接管的过程中,又将风险的控制力转移给了人类驾驶员。因此在不同情形下,由于对于风险预见的主体不同,责任的分配有所区别。此外根据民法典第1173条,被侵权人也并非单纯的是风险的被动承受者,结合可预见规则,可以要求被侵权人在其可以预见的范围内采取合理措施来预防损害的发生或阻止损害的扩大。

(三)

可预见性规则符合现阶段技术特征

传统自动驾驶的决策系统采用分段式模块架构,分为感知、规划、控制、执行四大核心模块。在此架构下,主控芯片需承担感知数据融合任务并依据预设规则驱动的规控算法输出控制指令。但是规控算法难以穷尽所有交通场景,面对未预先定义的障碍物或突发状况时容易出现决策失灵的情形。自2024年起,车载大模型的部署成为车企技术突破的核心方向,端到端的生成式AI自动驾驶架构逐步替代传统分段式方案,通过将训练完成的大模型部署于车载系统,直接接收传感器原始数据并输出规划路径,大幅提升了系统的决策效率。最为关键的是,该架构具备未定义场景的自主应对能力。在面对未预设的障碍物时,大模型可通过迁移学习实现举一反三,结合“短期记忆+长期记忆”的创新融合模式完成自我迭代。生成式人工智能在自动驾驶领域的应用尽管有助于实现从“辅助驾驶”到“自动驾驶”的飞跃,但同时也为可预见性规则的适用提出了实践挑战。

第一,明确技术特征是人工智能概率计算的本质。以高级别自动驾驶系统生成决策过程为例,其本质上是一种在高维向量空间中进行的连续概率投影。系统首先通过传感器将现实世界实时转化为向量空间中的数值表征,使每个实体或行为成为特定数据点。随后,注意力机制通过概率计算对所有向量的重要性进行加权,从而锁定关键信息,如优先关注突然出现的行人而忽略远处飞鸟。加权后的综合情境向量将被映射至预设行动空间,系统会通过概率评分来评估每个行动与当前情境的匹配程度。最终的决策通常会选择在概率层面最具合理性或期望效用最高的行动方案,而非追求绝对正确的解。因此带来了显而易见的问题。其一,概率计算层面的“最具合理性”方案不能等同于可预见性规则中的“理性人预见”标准。二者决策基础不同,算法上的合理性来自于统计模型追求的整体最优,而法律上的合理性则来自于社会共同体的合理认知。而且,最合理的方案也不能等同于无风险。概率计算追求的是风险最小的数学上的解,法律却以合理分散社会风险作为规则的功能定位。其二,从因果关系理论的层面来看,自主学习能力所导致的人类对机器控制力下降以及其行为不可预测性,可能使智能机器在法律上被视为事故的“替代原因”,从而动摇传统的归责基础。对此,有学者提出将因果关系归为相关关系,或可以成为解决这一问题的方案之一。

第二,从因果关系角度明确可预见规则的适用。因果关系是侵权行为与损害赔偿的核心问题,在具体判定步骤上,无论是大陆法系还是英美法系都首先聚焦于事实上的因果关系,在确定行为与损害后果存在客观联系后,才会对行为人是否应当承担法律上的责任以及责任范围如何界定作出判断,即判断法律上的因果关系。法律上有多种判断因果关系的学说,如早期英美法系适用直接结果说,后采用可预见说,又如德国法的风险实现说以及我国台湾地区的法规目的说等,大陆法系则以相当因果关系为主。相当因果关系主张在事实因果关系成立的前提下,在事件没有其他异常介入因素的过程中,侵权人应对其行为所引起的“相当的”损害承担赔偿责任。所谓“相当性”是指行为显著增加了发生损害的客观可能性。可预见说要求损害必须落在加害人不法行为所制造的危险范围内,并且在这个过程中没有其他介入因素中断因果关系,若这样的损害是合理可预见的,则加害人应当承担赔偿责任。德国法院即是在增加危险可能性与事件正常发展过程之间,弹性应用相当因果关系说。由是观之,对于相当因果关系说之论述,可适用于合理可预见说。但无论是哪种学说,可预见性规则都有可解释的空间。若想从因果关系角度厘清可预见性规则在自动驾驶领域的适用问题,还需要从技术构成方面拆解自动驾驶的底层逻辑。以自动驾驶系统为代表的新一代机器人所具备的自主学习能力,使其行为内在地蕴含了不可预测性,它们可以自主地从独特个体经验中学习,并以无法预见的方式与环境交互。正是这种自主性,导致了当前法律框架在归责时陷入困境,难以充分应对其造成的损害。所谓机器自主学习实际上是机器学习的一种直观表达,机器学习是人工智能的一个子集,其核心在于不需要人类做显式编程,而是让计算机通过算法自行学习和改进,去识别模式、做出预测和决策。L3级别自动驾驶系统正是这种机器学习的垂直应用,通过深度学习的方法,利用神经网络来识别现有内容的模式和结构,学习并生成决策。此外,机器还可以通过算法学习自主生成文字、图片、音频等等,其中用于自然语言相关任务的深度学习模型更广为人知,即现在被普遍使用的大语言模型。但无论是自动驾驶还是大语言模型,这种基于算法自主学习而生成的内容,其底层逻辑都是概率计算,是一种可能性的回答,而非基于因果逻辑推演得出的确定性答案。法律科学根植于演绎推理之上,更关注事实的本质,以及事实与事态的区别,对“可能性的”理解存在逻辑位置的缺失。算法对社会生产结构的影响如此重要,俨然为社会生产的组织核心,法律秩序也应当完成从土地、市场、网络再到算法的范式迁移。

相当因果关系说的理论前提在于,事物之间的因果关系是事物普遍联系和相互制约的反映形式之一,它是客观的,独立于人们的意识之外的,不依人的意志为转移。但是人们对因果关系的认识,是要受制于人类的知识水平的。事物之间联系的复杂性、人类认识能力的有限性、信息占有的不完全性等等,使得人们不可能完全认识事物之间的因果关系。从而,人们对特定事件之间的因果联系的判断也只能是在现有的认知条件和信息状况下,对因果关系做出一个大致的判断。因果关系的认定就不完全是一个逻辑推演的过程,而一个可能性的判断过程。相当因果关系学说认为因果关系链条本身是独立于人意识之外的客观存在,囿于认知能力与信息边界,人们难以完全认识到事物之间的因果关系。而在算法与数据的时代,海量数据揭示的不再是清晰的因果链条,而是无数以概率呈现的相关关系,从抽象意义上看,任何事物的相互联系都可以解释为相关关系,因为“关系”这一词的语义就暗含了对相关性的描述。关联的或然性概率成为区分因果关系和相关关系的重要指标之一,这一指标存在极大的解释空间。法学理论体系建立在追求确定性的演绎推理之上,而我们身处的数字世界主要由概率性的关联构成,传统因果链的分析框架难以解决算法技术在权利归属与责任界定中引发的新型争议。因此,需要从广泛的数据关联中识别出具有法律规范价值的联系,同时还需要明确判断标准,判断何时统计层面的关联足以构成法律上可归责的因果关系。可预见性规则一方面可以帮助我们从海量数据关联中判断哪些具有法律意义,另一方面也为这种关联在多大程度上可以构成法律上可归责的因果关系提供标准。具言之,要先从一般行业标准与技术水平来确定哪些风险关联应落入可预见的范围,再通过一定的标准判断行为人对可预见风险的防范是否充分。

第三,过错认定上可预见性规则的功能。过错作为一种主观心理状态可以分为故意与过失,故意是指行为人明知自己的行为会造成他人损害仍然希望或放任损害结果的发生,因而不涉及“预见”的问题。如,人类驾驶员在系统明确提示需要立即接管以避免碰撞的情况下,仍然无视警告继续从事非驾驶活动,那么其责任的认定是基于主观恶意,而非预见能力的问题。因此在此类故意侵权情形中,责任成立的标准上没有适用可预见规则的余地,但是在确定责任范围上仍然具有参考价值。过失则意味着,首先要存在注意义务,其次,过失责任的成立意味着行为人违反了该义务并给受害人带来了损害。在L3自动驾驶的过失责任认定中,可预见性规则发挥着核心作用。法庭认定注意义务是否存在的核心在于界定被告的责任边界,可以通过参照风险产生时被告对于结果的可预见性来限定其所负的义务。在L3级自动驾驶系统发出接管请求后,驾驶者是否负有接管义务以及义务的范围,取决于其是否应当预见到不作为可能产生的风险。例如,在高速公路场景下,合理驾驶者应当预见到忽视系统接管请求可能导致严重事故,因此负有及时响应的注意义务。对于过失的认定,应当采取客观加主观的综合判断方法,其中,客观标准以合理驾驶者在相同情境下应具备的预见能力和注意程度为基准;主观标准则需兼顾具体行为人的实际预见能力。

传统机动车的驾驶场景中,基于成熟的道路交通经验和司法实践,“合理驾驶者”的内涵与外延相对清晰,认定标准也具有较高的确定性与可操作性。但由于L3级自动驾驶人机共驾模式,存在控制权动态切换的特殊性,传统标准难以直接适用,因此其内涵与判断标准需要通过系统性的测试予以明确。

三、L3级自动驾驶汽车侵权责任可预见性规则的实践证成与适用标准

人类驾驶员在系统控制期间应当保持的合理注意水准,具体包括对系统能力边界的准确认知、对突发状况的适时介入等义务要求,其责任认定关键在于驾驶员是否履行了与自动化等级相匹配的监督职责。倘若此时人类驾驶员未达到合理注意水平并发生了交通事故,应当适用一般过错责任。应当明确L3级自动驾驶系统属于驾驶辅助装置,在特定情形下系统的确可以控制车辆自主运行,但这种“自主性”与法律上的“主体性”并非相同的概念,其控制车辆的能力本质上源于预设的算法与汽车部件的连接与互动,并不具备独立意志。系统的全部决策均可追溯至人类的技术设计,系统本身没有独立承担法律责任的行为能力,不能享有独立的法律地位,不属于法律意义上的主体。驾驶主体仍然是人类驾驶员,系统只是人类驾驶行为的延伸工具。

(一)

L3级自动驾驶过程的风险因素分析

L3级自动驾驶汽车的接管过程,其本质是新形式的人机协同。影响人机协同接管过程的因素主要包括人口学因素、分心因素、驾驶疲劳、信任。对风险因素的系统分析,可以为可预见性规则的适用标准和行为评价方法提供事实基础。

第一,人口学因素。其一是年龄,驾驶事故率与年龄呈凹函数关系,中间年龄段(25-60岁)驾驶员处于函数曲线谷底,事故率最低,两端年龄段(25岁以下及60岁以上)驾驶员分居曲线上升段,事故率更高。在接管时,尽管用时相同,但老年驾驶员会在接管时采取更多的制动行为,年轻人则更加随意。其二是驾驶经验。经验丰富的驾驶员可以在接管时更快更好地作出情境判断并完成平稳操作。

第二,分心因素。非驾驶相关任务(Non-Driving Related Tasks,NDRT)的出现是自动驾驶条件下驾驶员产生分心状态最主要的原因。人类驾驶员在系统接管车辆,代行驾驶职责以后,很难继续将注意力集中在观察车道以及车辆控制上。自动驾驶不仅解放了驾驶员的双手,更是视觉、听觉、肢体以及大脑的全方位解放。非驾驶相关的任务就可以从这几个感官通道进行总结概括。视觉上的如观看手机、车窗外的风景。听觉上的如听音乐、广播。肢体是指打字等与驾驶任务无关的肢体动作。大脑则是指驾驶员的注意力从驾驶任务上转移到其他事项。以上四种类型并非割裂或者非此即彼的,通常一种非驾驶相关任务会占据驾驶员的多重感官,如躺着看视频,手机输入文字回复信息或者拿起手机进行通话等,在同一时间经历多种类型的分心。法官在具体案件判断中应当考虑到,分心因素对人类驾驶、自动驾驶分别产生的影响程度,尤其是要考虑对接管指令响应的合理反应速度。

第三,驾驶疲劳因素。驾驶员客观原因产生的疲劳,应当归责于驾驶员本身并无异议。然而自动驾驶本身也会产生主观疲劳,这种疲劳也可定义成无聊,人们认为无聊感来源于环境要求低于个人能力水平,导致缺乏挑战性。由于在L3级自动驾驶场景下,人类驾驶员不需要调动知觉参与到驾驶任务中,因此更容易被动地产生无聊感,形成疲劳驾驶。人类的注意系统包含警觉、定向以及注意控制三大要素。在自动驾驶场景下,驾驶员容易警觉下降,被动疲劳也会降低注意力和控制力。因此生产厂商应当通过适度提高驾驶员的工作来保持必不可少的警觉。

第四,信任因素。信任是一种敢于托付的心理状态,而托付通常意味着愿意承担风险。在智能社会,信任是人机成功合作的前提,人类对于机器的信任意味着认为机器可以作为代理人帮助其实现某个目标。但个体在人机交互中并不总能保持一个恰当的信任水平,在L3等级自动驾驶场景中,驾驶员对系统的过度信任或不信任都会导致事故的发生。自动驾驶的人机交互情境存在气质型信任、情境信任和习得性信任,法官对这种动态过程的评价需要考虑信任条件的适当性。合理信任条件下仍然产生机动车事故,会暴露出系统设计本身的缺陷问题。此外,当自动驾驶系统出现感知盲区、算法决策偏差或人机交互界面失效等技术缺陷时,推定生产方作为风险的最优控制者,应当承担严格责任。此时便跳出一般性的道路交通责任,而基于产品瑕疵转向适用产品责任,归责基础在于生产方对生产技术以及训练数据的绝对控制优势。

(二)

L3级自动驾驶接管过程的可预见性标准评价模型

现有技术研究从纵横两个维度展开了人机协同的接管行为评价框架。横向维度将接管过程视为整体,探讨各种事实因素对接管过程安全和效率产生的影响。纵向维度以时间域对接管过程展开计量,确定接管过程中的重要节点与合理反应时间,并将各个阶段与人类驾驶员心理活动建立对应关系。综合Stanton&Young的自动驾驶条件下心理因素模型、Zeeb&Buchner等的视觉分心状态下接管过程心理模型、张艺竞和常若松的接管过程三阶段模型,以及吴付威和杨慧等的两阶段预警模型,可以在机动车交通事故责任层面建立L3级自动驾驶接管过程中驾驶员侵权责任的可预见性标准评价模型(图1)。

图 1  L3 级自动驾驶接管过程中驾驶员侵权责任的可预见性标准评价模型

L3级别自动驾驶的接管过程可以细分为两个阶段:第一阶段由系统发出接管决策指令,接管决策是由算法触发的风险控制指令。比如,当传感器识别到驾驶环境或汽车自身状态即将超出设计运行域(Operational Design Domain,ODD)时,系统会根据内设的风险评估模型作出的决策向人类驾驶员发出接管请求。第二阶段是人机交互的接管过程,系统通过多模态预警发出请求,人类驾驶员需要严格地在时间窗口内重新接管车辆控制权。这两个阶段中如果发生侵权事故,不同主体的预见义务不尽相同。在具体侵权责任的认定上,过错的判断需要以生产厂商的专业预见义务和人类驾驶员的“合理驾驶者”为标准,因果关系的判断则需要明确是否是某一方主体没有尽到注意义务从而创设 了风险并转化成了损害结果。

自动驾驶侵权责任中,“合理驾驶者”的界定标准从对一般个体行为的评判,转向了风险控制能力的分配。在法律评价层面,基于风险控制力而产生可责性判断。法律将风险的预见与防范义务分配给在特定技术场景下最有控制力的一方,如果违反该义务,将构成法律上的可责性基础。循此风险分配的逻辑,应当从可预见性规则角度厘清L3级自动驾驶人机接管场景中的权利义务分配格局。原告完成初步举证后,如果其能证明损害发生于自动驾驶系统运行期间,举证责任即发生转移,由被告方承担证明自身无过错的责任。相较于普通消费者,制造商和驾驶者不仅对技术系统和驾驶行为具有绝对的信息优势,更是这种风险的主要创造者和控制者,将举证责任配置给距离证据最近且能有效控制风险的一方,既符合诉讼经济原则,也能有效矫正诉讼双方在技术认知上的悬殊。第一,审查免责事由。对生产者而言,其免责抗辩必须建立在对算法注意义务三重要件的全面证明之上。需通过系统日志、设计文档等证据证明其提供了符合标准的两阶段预警系统,也确保了不低于4秒的预警时间间隔,并采用了多模态预警的方式。对驾驶者而言,其需要借助事件数据记录仪(EDR)、眼动追踪数据和车身传感器记录等客观证据,证明自己在规定时间内完成了警觉启动、接管反应时间显著缩短、且操作符合各项稳定性指标。此外,任何一方还可通过提供确凿证据证明损害完全源于异常介入因素来实现免责。这种精细化的免责事由体系,避免了一刀切的司法裁判,也为不同主体的行为提供了明确指引。第二,审查责任分配结果。当证明活动显示各方均存在义务违反时,案件即进入责任比例动态划分阶段。从比例原则出发,对各方过失进行精细化量化评估。此时法官需从三个方面综合考量,一是各方义务违反的程度,即其行为偏离法定标准的严重性;二是过失行为与损害结果的原因力的比例;三是风险控制能力的实际状况。

(三)

L3级自动驾驶侵权责任的可预见性标准

1.驾驶员与生产厂商过错的可预见性评价标准

在自动驾驶系统控制阶段,系统全面承担机动车驾驶任务,人类的角色从“驾驶者”转变为“监督者”,以人类驾驶员为中心构建的交通事故侵权责任规则难以为继;人类控制驾驶阶段,系统在移交控制权的同时也移交了某种驾驶困境,俗称“收拾烂摊子”,这无疑会带来新的风险因素;在接管过程阶段,是风险最高的情形,也会产生共同过错的问题。因此,法官需要分别审视生产厂商和驾驶员在可预见性规则层面的具体义务。

生产厂商需要预见自动驾驶过程中可能存在的系统操作问题、接管风险问题,并尽量消解人类驾驶员控制的风险因素,这是由生产力关系的不均等产生的实质公平需求。一是预警分级义务。在单阶段接管时,驾驶员通常会因没有准备充分被迫接管车辆,驾驶压力较大,两阶段预警能显著提升接管绩效。因此,系统必须提供准备阶段与执行阶段的连续预警。两阶段预警机制具体包括,第一阶段以“请准备接管”为代表的认知唤醒功能,旨在激活驾驶员从非驾驶任务向驾驶状态的心理转换;第二阶段以“请立即接管”为标志的行动指令功能,是在认知准备基础上发出明确的行为指引,这种分层递进的预警设计本质上是对人类信息处理机制的专业预见,也是开发者作为专业技术主体应当履行的基础性义务。二是时间充裕性义务。科学试验表明,在5秒的总接管请求时间下,4秒的预警时间间隔在模糊综合评价中得分最高,能显著优化换道效率和行驶稳定性。因此,系统应以此作为默认或最优配置,为驾驶员留出合理的准备时间。要求≥4秒的预警间隔,这一技术标准的确立既源于驾驶模拟研究显示的接管质量显著提升效应,也是尊重人类认知能力的客观局限,将必要的准备时间纳入开发者必须保障的安全边界。除了4秒预警间隔的客观标准,基于上述可预见性标准评价模型还可以启发更多的实践操作标准,为法官提供更多的裁判依据。

驾驶员需要审慎考虑机器有可能产生的风险因素,尽量降低风险发生的可能性,以及风险可能导致的损害后果。在L3级自动驾驶人机共驾的框架内,人类驾驶员的合理注意义务是动态的,因为其作为系统的最终监督者,需承担持续性风险管控责任。因此,“合理驾驶员”不应是一个抽象概念,而是可被两阶段预警逻辑与三阶段心理模型定义、并经具体量化绩效指标验证的法律标准。在司法实践中,判断人类驾驶员是否尽到注意义务,可以此客观标准为基准。若事件数据记录仪(EDR)等证据证明其行为表现未达到该科学共识下的理性驾驶者标准,尤其在系统已提供优化预警时仍显著偏离,则可直接认定其违反客观注意义务。具体而言,人类驾驶员的合理注意义务一是警觉启动义务。当系统发出准备预警的瞬间,人类驾驶员即负有警觉启动义务,必须在约2秒内通过视线转移与姿态调整完成从非驾驶任务到预备接管的状态转换,此时可以以眼动数据与身体姿态传感器等为判断依据,需要驾驶员表现出从非驾驶相关任务中脱离的明确行为特征,例如视线转向道路、身体姿态调整为准备驾驶状态。若未能在此时间窗口内表现出准备行为,即可初步认定为未能尽到“警觉唤醒”的注意义务,因其未预见并响应系统提供的准备机会。但违反该义务并不必然导致法律上的否定性评价,体现了对人类认知延迟的法定容忍,因法律不要求人履行不可能的义务。二是及时反应义务。在这一阶段,进一步要求人类驾驶员在接到“立即接管”指令后展现出显著提升的反应效率,具体而言,其接管时间应比单阶段模式缩短30%以上,且方向盘最大转角应显著更小,以证明其决策更从容、控制更稳定。此项义务的法理基础在于驾驶员必须善用系统预先创造的心理准备优势,将预警阶段获得的宝贵数秒转化为实际的安全决策窗口,任何不必要的延迟都将构成对风险防范机会的浪费。此标准将主观的过错判断客观化,判断其在获得优化预警后的绩效提升是否达到了可合理预期的科学水平。三是合理操作义务。当接管进入操作阶段,审慎决策义务要求驾驶员的控制应当符合车辆动力学稳定性边界。具体表现为方向盘转角不超过某种程度的优秀等级上限且制动操作平稳渐进,此项义务的设定是对物理规律的尊重,此外也足以说明,任何过度操控都不仅是驾驶风格问题,而是可以构成法律意义上的过失。四是稳定控制义务。最终整个接管行为应以稳定控制义务的履行为圆满结局,驾驶者必须通过将纵向减速度控制在一个固定数值以内,确保车辆恢复到稳定安全状态,此项以EDR数据为技术支撑的义务标准,标志着法律对驾驶行为的评价已从单纯的结果避免转向对全过程控制质量的精密考量。这四个环环相扣的义务层次共同构成了“合理驾驶者”在自动驾驶时代的行为规范。

2.关于因果关系的可预见性评价标准

自动驾驶侵权中的因果关系证明存在三重技术障碍。首先,系统的决策过程具有不可追溯性,非线性的决策过程在事故发生后难以进行线性追溯,即便是系统设计者也难以确切解析基于海量模型参数产生的决策逻辑,事故的因果链条难以还原。其次,系统决策的权衡机制难以验证,系统基于概率进行决策时隐含了对于安全、效率等价值的权衡。受害人如果要证明权重分配与损害之间存在因果关系就必须论证调整特定参数就可以避免损害,这种技术反推论存在极大困难。再次,倘若受害人企图通过援引法定或行业标准证明自动驾驶汽车存在缺陷进而导致其损害,就需要先证明实际发生的损害恰好属于该标准意图防范的风险。当自动驾驶侵权发生时,技术黑箱使得传统因果关系证明路径几近失效,是以,应重新构建因果关系的可预见性评价标准,从而在事前为各方主体确立清晰的行为标准,在事后减轻受害人的举证责任。

第一,生产厂商的多模态预警供给情况。心理学研究表明,视觉、听觉、触觉等结合的复合模态比单一模态更有效,系统设计必须确保预警能有效中断驾驶员的“分心”状态,使其能够被可靠地感知。当驾驶员可能处于视觉、听觉或认知上的分心状态时,多重感官通道的协同作用能够有效穿透注意力屏障。这种设计理念体现了开发者对现实使用场景中各类分心因素的充分预见,也是实现有效风险控制的必要技术措施。

第二,具体案件中的情境认知情况。要求人类驾驶员在预警间隔内主动完成环境扫描、风险源识别及避险方案构思的完整认知链条,此时视线轨迹的合理分布与操作决策的逻辑时序将成为判断其是否尽到该义务的关键证据,这一要求体现了法律对驾驶员作为最终决策主体应具备情境意识的合理期待,也保护驾驶员对科学范围内自动驾驶稳定性的合理信赖。

(四)

可预见性标准的后果主义审查

法官最终在裁判结论中,应当避免责任机制所保护的合法利益延伸太远,从而破坏“责任法的体系性”(haftungsrechtliche Gesamtsystem)。人工智能系统认定为产品仍具有一定的不确定性,法律应当在可预见性标准方面留下必要的自由裁量空间,以适应社会的动态演进。法律在面对重大技术变革时应具有前瞻性,如现代药物的安全测试,无需等待真正发生临床大规模伤害事件,通过严格的实验室数据即可确立准入标准。

自动驾驶人类驾驶员的注意义务从数量上看似乎比传统驾驶更多,因为其除了特定情形下的传统注意义务,还包括了新增义务,但实际承担的注意义务在程度上较以往有所减轻。在自动驾驶系统控制期间,人类驾驶员的注意义务明显限缩,仅需保持基本警惕等个别注意义务。此时应该采用客观一般理性人的标准评价,倘若驾驶员未履行该义务,将构成对作为义务的违反,具有违法性,符合过错构成,此时驾驶员处于证据优势地位,适用过错推定原则,其需主动证明自己已经尽了合理注意义务,否则将承担相应的责任。而在人类驾驶员接管车辆期间,由于控制权尚处于转移的过程中,因此需要分情况讨论。若驾驶权尚未完全转移给驾驶员时发生交通事故,仍适用前述归责方式。但如果驾驶员拖延接管,其主观上存在故意或过失,应承担过错推定责任。最后在驾驶员完全接管车辆,系统退出操控以后,作为车辆的控制者,如果驾驶主体与保有人是同一主体的,保有人承担过错责任;如果不是同一主体,由驾驶主体承担过错责任。

此外,在裁判中还需要考虑外部主体的干预因素。作为法律因果关系判断的关键内容,还需要考虑客观环境、其他道路使用者的行为、不可抗力事件等超越合理预见边界的介入因素,划定责任范围的合理边界,避免对驾驶主体施加过重的预见义务。其中最关键的是减损规则和过失相抵规则的适用。减损规则的适用以受害人未采取合理措施防止损害扩大为前提,若事故发生后,受害人明知存在避险可能却放任损害扩大,其就扩大部分不得请求赔偿。如车辆仅发生轻微碰撞,但驾驶员未及时制动导致二次事故的发生,后续损失应适用减损规则。过失相抵规则适用于多因一果的情形,当其他道路使用者的重大违章行为与自动驾驶系统的反应形成共同致害原因时,应根据原因力大小按比例减轻驾驶人责任。比如行人突然闯红灯迫使自动驾驶系统急转撞向护栏,应依据各行为人过失对损害发生的作用力进行责任分配。

四、结论

立足于现行侵权责任体系框架,可以在既有法理基础上探索出一条适应智能社会规则的解释路径。本文提出L3级自动驾驶接管过程中驾驶员侵权责任的可预见性标准评价模型,遵循风险控制与责任相匹配的原则,以风险类型划分为起点,通过细化注意义务的客观标准来明确不同情形下各个主体的法律责任,从而将可预见性规则在法学理论上的笼统表达,具体化为司法裁量时对事实要素的分析步骤与内容。可预见性标准评价模型确立了以风险控制力为核心的责任分配原理,不仅适用于自动驾驶侵权案件,还可以为具身智能、脑机接口、金融、医疗等其他人工智能应用场景下的责任分配问题提供理论参考。此外,随着“通过统一感知、预测、规划和执行的生成式方法,我们有望缩短从研究样机到大规模部署的道路,加速L5时代到来”,这一技术层面的突破,预示着自动驾驶将从L3级的人机共驾模式迈向完全自主的L4、L5级。当技术层面已为实现完全自动驾驶做好准备时,法律体系也应把握住这一历史契机,通过法治保障机制的调整给予时代积极的回应。

图片

往期精彩回顾

上海市法学会官网

http://www.sls.org.cn

相关话题
  • 中国企业犯罪研究报告(2023—2024)
  • 中银原创|北京地区计划单列落户背景下劳动者提前离职的损失赔偿责任研析——以(2024)京01民终1395号案为例
  • 刑事洞察 | 于小强、张晋铭:《贪贿解释(二)》对民企反舞弊的影响及合规应对
  • 最高法法答网:如何具体把握串通投标罪中认定“情节严重”的标准及依据?
  • 入库案例:涉及非法集资等涉众型经济犯罪的民刑交叉案件的认定和处理(2025.10.10)
  • 获奖优秀论文 | 新《公司法》下董事与法定代表人辞任涤除登记的制度冲突与体系重构