律页科技 Logo
首页
解决方案
效能律所私有AI中枢AI 智能作业系统
品牌AI影响力升级数字人代运营
资源观点
资源文书资源法律导航
观点法律社区律页声音
有关律页
团队介绍加入律页联系律页
律页科技 Logo
首页
律页

产品与解决方案

首页律所私有AI中枢AI 智能作业系统AI 影响力升级 (GEO)AI数字人代运营

资源与观点

文书资源法律导航法律社区律页声音

关于律页

团队介绍加入律页联系律页

用户协议

数据使用声明Cookie使用政策文档发布协议隐私条款用户服务条款

关注我们

律页公众号

律页公众号

律页微博

律页微博

2023-2026 北京律页网络科技有限公司版权所有ICP经营许可 京B2-20254773京ICP备2023007930号-4京公网安备11010502056436号
北京律页网络科技有限公司 联系方式: 400-966-9558地址: 北京市朝阳区新华科技大厦13层1316室
全部问题
话题
话题
标签
榜单

左飞|智慧司法中人工智能的隐形偏见及其应对

科技应用
专业人士
发表于 2025 年 12 月 01 日修改于 2025 年 12 月 01 日

来源:上海市法学会 东方法学

发布日期:2025年12月01日    


数字化成为当下的流行趋势,智慧司法是这一趋势在司法领域的具体体现。智慧司法是人工智能技术与司法技术的深度融合,通过人工智能技术实现司法的智能化、高效化。虽然人工智能技术以其精确的大数据、缜密的算法模型闻名,但其隐形偏见的存在也不容小觑。人工智能技术以“人类智能”为衡量标准,算法的设计运行不可避免地带有人类的主观偏见,而人工智能的解释性不足加剧了隐形偏见的问题。算法更多关注预测性而忽视解释性、缺乏对常识的定义编码(包括伦理因素的缺失)、缺乏有效的问责机制,从而共同导致隐形偏见的肆意蔓延。因此,必须正视智慧司法中人工智能的隐形偏见,应当建立完善的数据收集与处理机制,加强数据质量监控与反馈,引入多源数据与跨领域数据融合,确立算法运行原则与决策机制,确立算法的解释标准,建构规范的可解释模型,建立算法更新与维护的长效机制。确立算法的渊源制度,将训练数据的语义参数化,推进算法法官与人类法官的协同配合,建立完善的问责机制,明确人工智能技术的责任与义务,保障智慧司法的稳步前进。

人工智能在司法领域的发展体现了以科技创新为动力的新质生产力在法学领域的崛起。自2015年起,最高人民法院将智慧司法建设作为现阶段的重点任务,引起了理论界与实务界的广泛讨论。在法学领域,既有研究主要聚焦于智慧司法在裁判过程中的功能与潜在风险,例如法院数字共同体的构建、智慧司法的技术局限与伦理风险;而在实践层面,讨论的焦点则在于智慧司法的实施效果、未来可能的发展动向以及相应的优化机制。最高人民法院在《关于人民法院贯彻落实党的十九届四中全会精神推进审判体系和审判能力现代化的意见》中指出,“为加快落实法院信息化建设,需要研究制定人民法院系统总体设计方案,补齐智能化服务短板,提升信息化建设水平”,这无疑为智慧司法提供了政策支持。现代科技在司法领域的深度应用,诸如人民法院在线服务平台,在线化解纠纷,降低了人民参与司法的时间和经济成本;司法区块链统一平台的建设,有助于形成全国统一的人民法院区块链应用体系;大数据研究的广度和深度,为类案的裁判提供更加科学的决策依据。

智慧司法中的人工智能技术运用包含司法行政辅助类技术和司法裁判辅助类技术,前者以电子卷宗深度应用为抓手,推广庭审语音识别、文书智能纠错、类案强制检索等。后者聚焦证据的校验和提供合理的量刑建议,在类案推送、量刑辅助、审判偏离度分析等方面把关,为“同案类判”提供可能。然而既有研究忽视了人工智能技术是否能通过“深度学习”,将自然语言转换为法律语言,并通过法律推理和专业性的算法得出实质性的裁判结果。人工智能的“深度学习”旨在打磨符合司法实践的算法,结合法律推理将案件事实置于法律语境中。但人工智能始终不具备自主意识,算法也无法摆脱主观因素的影响。为此,本文深度剖析司法裁判中人工智能隐形偏见的来源,从以“人类智能”为衡量标准、算法设计之初以及算法运行中所蕴含的偏见展开,对算法偏见的形成进行全面剖析。人工智能技术的解释性不足加剧了智慧司法中技术的隐形偏见,而这种隐形偏见是我国司法无法回避的重要议题,不仅损害司法公正亦对司法效率造成严重影响,与算法正义理念相悖。因此,本文力求通过为解决人工智能隐形偏见提供合理化意见,为推动智慧司法增添绵薄之力。

一、智慧司法中人工智能隐形偏见的表现

当今科技迅猛发展,效率至上的时代特征也渗透到法律领域,人工智能技术融入司法裁判,为智慧司法提供核心驱动力。人工智能技术尽管被赋予了客观、中立的标签,但深入剖析其运行逻辑与运作机制,不难发现在公正性表象下潜藏着人工智能固有偏见与歧视倾向。在法学研究的视角下,将机器学习与人工标注相结合的策略显著放大了人类意志与偏好的影响力,相较于传统的单一机器学习模式,这种组合方式产生了更为深远的效应。具体而言,人工标注所引入的个人偏好不仅与机器学习算法框架中固有的算法偏见相互交织,而且加剧了算法偏见的负面效果,使其影响倍增。这种复合性的算法偏见不仅来源渠道更为多样,同时也增加了其追溯与预防的难度,对法学领域内的技术应用和伦理考量提出了新的挑战。

(一)

人工智能以“人类智能”作为衡量标准

AI可以被描述为“允许机器以这样的方式运行,如果人类以这种方式运行,它将被称为智能”。这是约翰·麦卡锡(John McCarthy)在1956年给AI的定义,他被认为是“人工智能”一词的发明者。麦卡锡的定义揭示了人工智能的核心特质,即模拟人类的智能行为。这种模拟并非简单地复制,而是旨在实现类似于人类思维过程和决策能力的机制。如果机器能够以这种方式运行,那么它们所展现出的能力便可被视为一种智能的体现。

其一,人工智能以人类智能为基础和发展目标。所谓“人类智能”,通常可以归结为五个方面:第一,人类能够非常灵活地应对各种情况。人类并非机械地以相同的方式应对同样的情况,这种灵活性解释了法律的演变方式。第二,人类可以从表面上模棱两可或者相互矛盾的信息中找出意义,通过自身的知识或者经验等赋予信息以意义。第三,人类能够区分和识别不同情况中不同要素的相对重要性,这种过滤掉不重要信息的能力与法律的相关性有关。第四,在不同的情况中发现相似之处。第五,区分两种相似的情况。这与前一个特征相反,即发现不同情况之间的相似性的能力。这些特征也正是法律推理的基本要素。人工智能以“人类智能”为发展方向,不可避免地带有“人类智能”的主观性。

其二,人类智能涵盖了抽象推理、逻辑推理与连贯推理以及挖掘事物间关联性的能力。人类智能作为人工智能衡量标准的核心,不可避免地与法律推理产生联结。许多学者试图通过解释和量化法律推理的过程,将法律纳入与物理科学相同的模式,从而为法律带来秩序与可预见性。司法裁判中,法律推理并非机械地将法律规范与案件事实相结合,必然掺杂着法官的主观因素,诸如偏见、伦理道德等。人类智能能够利用既有知识从纷繁复杂的材料中提炼出潜在规律,还包括应对新任务的能力,即灵活适应新情境,以及在不依赖直觉和完整指导的情况下进行独立学习的能力。这些能力的综合考量,为人工智能的发展提供了更为精准和全面的评估框架。

(二)

算法设计不可避免地蕴含偏见

“算法是以某个值或一组值作为输入,并产生一些值或一组值作为输出的任何被妥善定义的计算过程”,即“将输入转化为输出的一系列计算步骤”,算法的本质是逻辑+控制。在探讨智慧司法领域中人工智能技术的运用时,对于算法的理解不应停留在其功能性应用的表面,而应进一步探寻其运行机制和背后的偏见因素。

其一,算法设计及决策机制的固有缺陷。算法作为用以解决问题或执行计算的指令序列,通常被描绘为具备自主性和公正性的机能,旨在确保其应用的合法性和可信度。但算法并非孤立存在的技术工具,而是根植于复杂的社会和文化背景之中。例如,在算法设计阶段,需要通过人工标注的方式作为理解人类语言的辅助措施,然而运用人工标注技术对人类语言进行转换的过程中,会受到算法偏见影响而对数据的解读造成区别于原意的理解。在对数据的处理过程中,为了符合一般听众的合理预期,人工标注对“一般听众”与“合理预期”的解读也囿于算法偏见的影响。而算法的决策机制是基于算法对数据的处理以及人工标注技术的辅助,因而企图遮蔽在司法实践领域中人工智能技术的计算与理解之间的鸿沟,更会加深智慧司法领域中算法偏见带来的负面反馈。因此,即便这些算法系统在表面上宣称中立无偏,实际上却难以避免偏见和歧视的潜在影响。算法在技术上可能或者严格把控应用的程度,力求保证裁判结果的唯一正确性,但与具体案件相结合时,无法完全排除法官的经验理性,但以此得出的裁判结果作为类案信息收集、运用到后续案件的算法中,形成看似逻辑和形式都没有问题的形式理性,成为算法设计不能忽视的一个逻辑闭环。

其二,训练数据的单一性。所谓训练数据的单一性是指在智慧司法系统建构过程中,算法所依赖的训练数据往往来源于某一特定场域,缺乏多样性。单一的训练数据可能导致算法对特定情景产生过度拟合,容易造成机械司法,如果法官不加甄别地套用人工智能技术,无法得出准确的判断。我国各个地区经济发展水平存在参差,当下法学领域追求类案同判或者类案同标,忽略了群体或者区域的差异性,在处理案件时训练数据的单一性会造成裁判结果的不公,导致样本数据失衡。训练数据的单一性也会造成数据选择的偏见,大大缩小了未来样本数据的选取,从而影响训练数据的完整性。训练数据多样性的缺失会将部分群体的利益剥离于被保护的利益之外,造成利益的失衡和权衡的失重。而利益衡量方法的失能会加重法官自由裁量的偏见,从而导致裁判结果的不公。

其三,算法更新与维护的滞后性。人工智能技术的应用本质是从数据中自动创建模型的方法。但数据的样本不均以及数据的时效性和真实性造成数据的收集与处理存在局限性。例如,亚马逊通过十年来收集的简历,其中大部分来自男性求职者,因而程序推断男性求职者更适合这份工作,从而在推送时避开女性求职者。算法问题根源在于,其运行时基于延续历史数据中固有的偏见和代表性不足的样本数据。机器学习算法的决策能力取决于其训练数据。有偏见的数据会导致算法延续并强化这些偏见。当数据集缺乏多样性时,以这些数据为模型的程序就无法确定目标群体与当下的适配性。算法的更新与维护的滞后性,也使得算法无法自动纠偏,法律的滞后性使得司法裁判中的算法应用更具有滞后性。

(三)

算法运行中滋生的偏见

其一,算法运行中的倾向性选择。算法通常基于大量数据进行学习和决策,一方面数据的来源和质量可能存在着固有的偏见,另一方面算法运行的过程中具有某种倾向性选择,即当算法在处理这些数据时,可能会不自觉地倾向于某些特定的结果或选择,而忽视了其他可能性。以美国为例,住房、就业、互联网推送等领域使用的歧视性算法造成机会差距的扩大。美国的通用搜索引擎谷歌的广告发布被指出存在一种倾向,即更频繁地向男性而非女性用户推荐高薪的广告。此外,一些专注于个性化招聘的网站也利用算法来捕捉并模仿用户行为以及招聘方的偏好模式。以具体实例来说,倘若算法检测到招聘者更倾向于与白人男性进行互动,那么该算法可能会据此“学习”并为其寻找更多的类似男性候选人作为替代。

其二,法官的自由裁量与人工智能的交互存在障碍。法官具有丰富的法律知识和实践经验,对案件事实的判断往往基于对案件证据的深度把握和自身敏锐的法感觉。法官在使用人工智能算法时,会根据自身的经验和对法律的理解对算法的输出结果进行解读和调整。这种经验理性的介入,使得算法在智慧司法中的应用不再是简单的机械决策,而是融入了法官的专业知识和实践智慧,受到法官个人认识和知识局限性的制约,带有法官个人的主观偏见。大数据的收集与处理往往是基于个案,法官在行使自由裁量权时不可避免地将伦理、道德等因素纳入考量。但算法无法自动生成人类独有的道德和伦理,算法的更新的滞后性以及开发者的专业性都会使得算法无法满足法官对冲突利益的平衡和保护,无法将伦理、道德和法律的需求进行转换。

其三,法官对人工智能技术的过度依赖,形成“算法偏见—裁判偏见—新算法偏见”的反馈循环。有学者认为,人工智能技术的应用不仅满足法律的形式理性,也力求实现同案同标、同案同判。智慧司法中法官对人工智能技术的依赖体现在机器决策对传统裁判模式的改变。智慧司法建设的初衷,与其强调“类案同判”的表象,不如深入剖析其背后的理念转变——即法律自动化倡导者所主张的,将决策权重心转移至算法系统。这代表着司法决策机制的迭代,是从“人治”向“法治”的深刻转变。但我国由于区域发展的参差,如果在类案裁判中对算法采用统一的标准,势必造成裁判结果的不公。在算法知识图谱的构建过程中,涉及程序员对大量案件筛选与收集,进行代码编写与算法建模,不可避免地会杂糅渗透算法开发者和使用者的主观因素。虽然代码的执行具有高度的精确性,能够确保无偏差地运行,但源于开发者的个人理解、经验判断或是编码习惯的人为“偏差”却可能在无形中被编进系统,潜在地影响知识图谱的准确性、完整性和可靠性。如果法官过于依赖人工智能技术,那么基于该算法的司法裁判、法律推理也不可避免地带有算法的偏见,甚至被算法纳入训练数据的考量,从而产生新的算法偏见,进而固化法官群体对待类案的偏见,形成算法决策的闭环。

二、智慧司法中人工智能隐形偏见的原因

智慧司法中,人工智能与法律是相辅相成的,法律对人工智能技术的选择设定了一定的限制,即所适用的人工智能技术必须是可以解释的。这一举措旨在提升司法活动的公正性、透明度和可信度,进而保障公众对司法决策的信任与尊重。算法解释区别于算法披露,具有其特定的含义,其中的“解释”是指人类与(机器)决策者之间的一个交互面,同时满足既是决策者的精确代理,又能为人类所理解。算法的可解释性旨在提供一种数据从输入到输出的合理性机制,降低非专业人士对人工智能技术与司法交叉领域过程的理解的难度,通过更为透明的解释机制,获悉数据到裁判结果的因果关系,使得算法决策的逻辑更加清晰,避免加剧“黑箱”性质的算法模型的适用。但在智慧司法中人工智能技术的解释性不足加剧了算法带来的隐形偏见。

(一)

解释性不足造成算法透明性的遮蔽

第一,关注预测性而忽略解释性。智慧司法中人工智能技术的应用旨在为类案处理提供统一的技术标准,这意味着可预测性成为机器决策的首要特征。人工智能技术是一种被动的“输入—输出”模式,其运行逻辑与法官基于经验裁判有着本质区别,算法的生成从运行之初就已经形成稳定的模型,司法过程中选择适用何种算法,更多地是从效率出发,追求的是人工智能技术提供的可预测性。但预测与解释之间存在差异,在法学领域中,对于法律推理的探讨往往涉及两个层面的考量:可能性与合理性。对于推理可能性的探究,实质上是基于现有事实对推理的概率进行评估,在原则上这一评估过程无需法官深究推理内在机制的合理性。与此相区别,合理性的追问则侧重于其解释效能的考量。换言之,当我们探讨推理是否合理时,我们实际上是在探寻该推理若成立,能否有效地阐释已知事实的存在及其背后的逻辑联系。这一深入剖析的过程,无疑要求我们对推理与案件事实间的关联有深刻的理解与把握。

第二,解释性不足导致算 法不透明性的加剧。由于算法的专业性,法官无法对算法运行的模型进行检验,算法的解释性不足就更容易形成“算法黑箱”,即其内部的工作机制和决策依据对于外部观察者来说是难以理解的。这种不透明性使得人们难以对系统的决策结果进行有效的评估和审查,也就难以发现和纠正其中可能存在的偏见。例如,美国的初创公司Ravel开发了用于分析判决趋势、法院以及法官简介的工具,并以订阅方式提供这些工具。该工具的运行并不公开,作者也不知道其准确性。Ravel被美国最大的法律信息提供商Lexis Nexis收购,该工具现已成为Lexis Nexis服务包的一部分。如果训练数据中存在对某些群体的刻板印象或歧视,那么人工智能系统可能会无意识地继承这些偏见,并在决策中反映出来。美国一些州的刑事法官在评估被告或已决犯的累犯风险时,在作出审前拘留、判刑或提前释放的决定时,实际使用了这一工具,即“替代性制裁罪犯管理剖析”(COMPAS)。支持使用COMPAS等工具的人认为,这些工具可以减少被拘留的人数,因为这些工具使累犯风险评估更加客观。但事实上由于使用的是过去的数据,与白种美国人相比,它系统地高估了非裔美国人被告的累犯率。这也印证了由于解释性不足,人们很难理解人工智能是如何从输入数据中提取特征、进行推理和作出决策的。这就可能导致一些看似合理但实际上存在偏见的决策结果。

(二)

算法缺乏对“常识”的定义或编码

第一,算法对法律语境下的“常识”缺乏判断和解释的能力。我国《民法典》第10条规定,“处理民事纠纷,应当依照法律;法律没有规定的,可以适用习惯,但是不得违背公序良俗”。司法实践中法官在处理案件时,无法找到与案件适配的法律,则可以通过习惯对漏洞进行补充。而习惯是基于长期、反复的实践行为所形成的一种高度认可性的行为规范。但算法的设计缺乏对常识的定义或编码,这意味着当算法遇到不能处理的事实或者新的数据组合时,存在不稳定或者失效的情况。即使该算法已根据专家单独验证的过去的决策进行过训练,依旧不足以证明对后续裁判结果的高度信心。以民间借贷纠纷为例,执行过程中,同一案由有多个申请人,被执行人主张没有偿还能力,但是通过申请法院调查令,从银行系统中查到被执行人交付多笔高昂的代理费,其拖延诉讼时间的目的显而易见,但算法对这种操作的常识缺乏认知,无法判断其“恶意”,更无法对“恶意”作出解释。

第二,道德、伦理要素的抽象性加剧算法的模糊性。在蕴含多元道德、伦理因素的司法语境中,众多权益及尚未明确纳入法律范畴的潜在利益,迫切需要通过精细化的算法解释机制来加以保障和维护。这不仅涉及对现有法律权利的诠释与扩展,更包含了对新兴社会利益的法律化认知和保护。由于道德要素和伦理要素过于抽象,无法将其转换成统一的算法代码,对道德要素与伦理要素的训练数据大多是从非正式渊源中提炼,需要借助自然语言的处理技术,很难被类型化、标签化。社会主义核心价值观入法,通过发布指导性案例,为人工智能技术提供更为丰富的语料库以及数据库,但相比于普通案件,指导性案例所提供的数据体量甚微,无法完全与法官所具有的生活经验和常识相提并论。这些技术工具在理解数据之间的深层关系方面存在局限。它们往往难以洞察数据之间的因果关系,无法充分揭示数据的内在价值和伦理意义,同时对于数据所处的社会场景和文化内涵也缺乏深入理解,导致输出结果的可解释性不足。

(三)

人工智能技术问责存在困境

第一,缺乏明确的应急处置和责任查纠机制。当算法的偏见被反复自动化并注入流程的风险通常分为两种情况,即有意识的恶意滥用以及并非有意识的恶意滥用。前者是指某些个体或团体故意在算法中引入偏见,以达到某种不正当的目的。后者则是指算法偏见可能源于无意识的、系统性的偏见。这通常是算法在训练过程中所使用的数据集存在偏见或不平衡所导致的。因此,智慧司法中算法责任的监督与审查问题也成为智慧司法解决隐形偏见的重要手段。有学者将“算法问责”称为将算法控制的决策导致歧视性或者不公平后果所造成的损害的责任下放的过程。这种问责还可解决算法开发方式及其对社会的影响和后果方面的责任问题。如果出现任何有害影响,负责任的管理系统应配备允许采取补偿措施的机制。虽然最高人民法院提出司法人工智能技术的研发、产品应用和服务运行全过程要建立应急处置和责任查纠机制,但我国智慧司法中系统监督检测的程序尚未确定。

第二,监督评价体系的来源较为单一。除了考量专家学者、程序开发人员以及法官群体的意见,作为诉讼程序中承担裁判结果的当事人双方以及诉讼代理人的意见也应当纳入考量。人工智能技术无论是从效率还是知识图谱的广度而言已经远超法官个体的知识储备,但智能与正确的判断力并不等同,在价值多元主义面前,法官对专业知识的诉求不是卓越的智力,而是实用的智慧,正如霍姆斯所言,法律是一种关于经验而非理性的主张。监督评价体系的来源单一,某种程度上造成了解释主体的垄断,无法避免地使得一些应当引起警觉却因现有法律漏洞而被人为遮蔽的数据变得更加模糊,导致算法模型的不可信。当人们对系统的决策过程缺乏理解时,会质疑系统的公正性和准确性,加剧算法隐形偏见造成的不可预测性。

三、人工智能的隐形偏见是智慧司法需要正视的重大议题

为深入学习贯彻习近平新时代中国特色社会主义思想,围绕坚持和完善中国特色社会主义制度、推进国家治理体系和治理能力现代化,充分发挥人民法院职能作用,通过打造智慧法院加快推进审判体系和审判能力现代化。人工智能技术在智慧法院的建设中作用突出,但由于数据的局限性、复杂性,算法的设计、运行过程中蕴含的隐形偏见对司法产生不容小觑的负面影响。

(一)

侵蚀司法公

其一,强专业性造成监督困难。智慧司法过程中的人工智能技术具有极强的专业性,不仅需要法律的专业知识,也需要算法等建模程序的知识。司法实践中案件的当事人或者诉讼代理人无法完成对算法运行的检测。如果算法自身或者运行过程中带有偏见因素会直接作用到司法裁判中,且裁判结果也难以被质疑和申诉,造成个案审判结果的不公。

其二,时效性被忽略。法院在运用的人工智能系统的数据来源往往是既有案例,不可避免地包含了对特定时期、特殊群体的刻板印象和偏见,有些数据也带有政策的遮蔽。这些训练数据被用于组建数据库以及语料库,自然将偏见嵌入算法中,从而在未来的案件裁判时,带有某种“过时”的审判倾向,造成案件结果的不公正,侵害了当事人的合法权益。

其三,算法黑箱和算法霸权成为算法解释权运行的隐忧。算法的决策过程不透明且不接受质询、不提供解释、不进行救济。从算法黑箱到算法霸权,无疑阻碍算法解释权的运行。在司法实践中,如果不能对算法决策背后的基本原理及算法解释的标准予以说明,形成了以偏见遮蔽偏见的运行模式。

(二)

降低司法效率

智慧司法中人工智能技术的应用其根本目的在于提高司法效率,无论是数据收集,还是通过算法模型辅助司法裁判,都是在保证裁判结果准确的前提下,提高结案率。但人工智能自身蕴含的偏见,一旦嵌入不特定案件中,会造成案件错判、误判,导致司法过程的复杂化,阻碍司法效率的提高。

其一,造成司法程序的延长、司法资源浪费。嵌入算法的偏见,在套用算法模型进行类案比对时忽略了很多细节,尤其是在数据筛选、证据分析等环节,因为政策、案件的特殊性遮蔽算法偏见。数据偏差是个案基于案件总量得出的结果,当偏差由于案件数量的庞大而被忽略时,无异于在某种程度上默认了司法不公。这不仅需要投入更多的人力、物力进行复核和申诉,还可能导致诉讼成本的增加。这种资源的浪费,不仅影响了司法效率,更对司法公正产生了潜在威胁。

其二,提高了“类案同判”的复杂性。人工智能技术的偏见通常是基于数据本身的缺陷或者算法的设计者可能受到自身认知、经验或价值观的影响,导致算法在处理案件时存在主观性和倾向性。前者包括训练数据的样本量小无法应对复杂多变的社会变化;案件的时效性,当下法律认为应当处罚而现在不应处罚(例如累犯的认定);政策原因导致的部分案件(农村拆迁等土地所有权发生争议的案件)。后者包括程序开发者或者专家团队的主观偏见,法官基于经验作出的价值判断等。这些带有偏见的数据或者模型被用于训练算法时,可能强化算法的偏见。由于案件要素的复杂性和多样性,人工智能模型可能无法准确理解和识别所有相关要素,仅关注“表面性相似”而忽略了“结构性相似”,从而导致类案性质的误判,可能影响类案同判的准确性,增加司法实践的复杂性和不确定性。

(三)

违背算法设计的正义理念

所谓算法设计的正义理念是指算法模型设计之初依托于维护社会公平正义的法治信仰。智慧司法中人工智能技术的应用亦要遵守算法设计秉持的正义理念。然而,算法上的隐形偏见使得在算法运行的过程中忽略了法律所应当保护的已有利益以及未经法律加以权利化的利益,对于基准数据的分类出现偏差,从而导致算法学习在与司法实践适配的过程中,将新收集的数据或者已有的数据的选取产生误差,从而导致新一轮的算法偏见。

其一,数据筛选造成特定源数据的缺失。构建算法模型需要收集大量的数据,而算法所蕴含的偏见使得在数据库建构的过程中有意选取或者规避某些特定的数据,造成源数据的缺失。在智慧司法系统的研发过程中,隐形偏见会引导算法聚焦萃取集体数据,忽略个体数据,使得法官在适用人工智能技术时不自觉地将算法歧视加之于案件的当事人,造成对权利的隐形伤害。

其二,造成类案标准与个案标准的背离。人工智能技术辅助类案智能化裁判的主要路径是通过大数据统计分析与深度计算,依靠自动化类案推送系统,形成可视化的类案知识图谱,为司法审判提供类案裁判标准。类案之所以具有法律上的说服力,其原因在于裁判过程中经由法律发现、法律论证、法律推理的相似性,这并非机械地遵守三段论的推理模型,而是基于案件大前提小前提所对应的法律推理的可参考性。类案标准的建构体现了法律所秉持的平等保护理念,这正是法律所欲实现的正义的基本要求。但算法的隐形偏见会阻碍类案标准可普遍化的实现,遮蔽了案件当事人的基本权利的保护和实现的司法路径,导致司法公信力的下降,从而瓦解法律所追求的正义理想,与人工智能技术所依托的算法设计之初正义理念相悖离。

在大数据时代,司法无法闭门造车,人工智能技术作为司法辅助手段已经成为大势所趋。法律的适用与发展是一个不断自我纠偏的过程,人工智能技术在一定程度上改变了法律知识的建构与生成,并对法律知识范式产生颠覆性的革新。但算法的隐形偏见使得法律的运用受制于法律职业群体内部的有限性,加剧了算法歧视,阻碍了新型权利的生成与既有权利的保护。

四、应对智慧司法中人工智能隐形偏见的策略

应对智慧司法中人工智能技术的隐形偏见,需要规范人工智能技术数据与算法优化、建构规范的可解释模型、加强专业互动及提升伦理风险意识、创建与国际人工智能技术接轨又符合我国国情的问责机制。在建设与完善智慧司法的过程中,如何确保所适用的人工智能技术在具有可预测性的前提下具有可解释性,助力而非瓦解司法,需要从智慧司法中人工智能技术的数据以及算法模型自身入手,在厘清技术带有的偏见因素介入司法造成的多重隐忧的底层逻辑后,对开发者与使用者的信息交互以及对规避智慧司法的伦理风险提出了更高的要求。通过完善智慧司法信息系统的问责机制,厘清技术与司法权力的边界,为技术助力司法提供进一步的检验和反馈。

(一)

数据与算法优化:规范智慧司法中人工智能技术

智慧司法的信息化建构中,平台建设最为基础,而数据的真实性以及多样性则是其核心。人工智能技术要为司法裁判提供实质性帮助,必须从模型建构之初,提供高质量数据样本,保障数据多元性,避免数据掺杂偏见因素,优化算法设计,为司法的公正、高效供能。

1.提高司法裁判中训练数据的质量与多样性

第一,建立完善的数据收集与处理机制。智慧司法是人工智能与法学的交叉领域,通过建构抽象的法律推理模型对案件事实、证据加以判断。但法律推理模型的建构通常基于由大量案件组成的训练数据,高质量的数据与足够大的样本量,可以为推理模型提供较高的精确度。首先,建立数据库的准入标准,建构符合我国司法现状的语料库。对纳入数据库的训练数据加以筛选,按照案件类别、时间、疑难程度、典型性、案件审级(一审、二审、再审)等标准对数据进行分类。其次,加强人工智能技术与法律论证模型的构建。法律推理模型通常适用于简单程序的运行,但人工智能技术如何证明类案的“相似性”有待进一步研究。最后,避免数据依赖,智慧司法中,人工智能技术只是起到辅助作用,当人工智能技术淡出司法平台时,法官对案件的审理不能被技术掣肘。

第二,加强数据质量监控与反馈,引入多源数据与跨领域数据融合。在智慧法院的建设中,促进法院之间以及法院与外部机构之间的数据流通与业务合作,构建高效的数据共享交换平台。通过设立先进的大数据分析系统,开发针对司法公开、诉讼服务、决策支持、监控预警、司法研究以及工作评估等多个方面的智能化服务。此外,还应积极探索建立覆盖立案、审理、裁判、执行等法院核心业务流程的知识图谱。同时,构建以用户为中心的人工智能感知交互体系,并搭建以知识为基石的人工智能辅助决策体系,通过信息的交互与反馈,引入多源数据,通过对跨领域数据的融合,丰富数据的来源,确保训练数据的准确性,提升法院工作的智能化水平。

2.优化算法设计与实现过程

第一,确立算法运行原则与决策机制。在数字时代的背景下,司法裁判的作出始终是以法官的自由裁量为主,人工智能技术为辅。人工智能技术不能跳脱出法律体系的制约,要遵循法律本身的运行原则。同样,确立算法的运行原则,应遵循合法性、公正性、透明性、稳定性等基本要求,确保算法的运行符合法律法规、伦理道德和公共利益。在决策机制上,应建立科学、合理、可操作的决策流程,包括数据收集、模型训练、结果输出等环节,确保算法决策的准确性、可靠性。

第二,确立算法的解释标准,建构规范的可解释模型。有学者指出,推论A是否比推论B更可信,取决于哪种推论能提供更好的解释:哪种推论更简单、与更多的事实相一致、更符合“背景信念”。“可解释”意味着可审计性和可解释性,解释标准之所以重要,是因为确定的解释标准,可以处理算法涉及的不同价值观之间的冲突,避免算法黑箱,保证算法运行过程的透明性。人工智能与正确的判断力并不是一回事,再智能的算法也无法作出精准的裁判,只能对裁判进行预测,最终的裁判结果还需要法官依托实践智慧作出,而不是依赖人工智能。同时,建构规范的可解释模型。模型在特定抽象层次上的可解释性可以与透明度和事后可解释性相关联。透明度可以通过模型的可模拟性、单个组件的可分解性以及算法学习层面的透明度,描述模型的易懂程度。事后可解释性是在模型推理步骤之后可以解释决策的特性,描述的是学习模型的决策如何容易被解释,通过训练数据的可视化,分析侧重于模型在单个数据点上的决策过程的本地解释,通过举例说明寻找最相似的例子。因此,提高训练数据的可视性、算法的透明度和可解释性,确立算法的可解释标准,确保纳入算法的每一个案例都是可以被解释的,从而避免训练数据的模糊性。

第三,建立算法更新与维护的长效机制。智慧司法是司法与人工智能共同工作的结果,未来的研究从系统上剖析算法法官与人类法官的差异,培养掌握法律与人工智能技术的复合型人才,成立专家团队。定时对算法系统进行更新和维护,检验训练数据的时效性,保证自然语料库与专业语料库的及时更新,确保算法能够适应新的数据与司法场景。在智慧司法中,对案件的结果可以收集当事人及其诉讼参与人的反馈,将反馈的意见纳入算法更新和优化的考虑范围,从而形成智慧司法的长效机制,避免因隐形偏见造成的司法不公。

(二)

道德选择:提升算法法官与人类法官专业素养与伦理意识

智慧司法中,完美的算法是不存在的,算法存在自身的风险,它们与法律一样,存在漏洞。要规避智慧司法的道德、伦理风险,则须加强对算法法官以及人类法官道德选择的强化,重视对利益衡量方法的规范性适用以及对算法的道德风险的评估与检测,提高智慧司法中的人机混合配合度,减小因算法偏见或者法官的主观偏见阻碍智慧司法的数字化进程。

1.推进算法法官与人类法官的协同配合

第一,完善人机交互系统。所谓算法法官,是利用人工智能技术辅助司法或者代替部分法官进行司法裁判的算法系统。算法法官通过大量的数据和精确的算法模型对案件进行分析和判断,相比于人类法官而言,大大提高了司法决策的效率和一致性。但算法法官无法排除蕴含偏见的训练数据,也无法对没有纳入编程的伦理要素进行自我判断。相比之下,人类法官具有丰富的法律知识和审判经验,通过实践形成了稳定的法感觉,为复杂案件的审理提供裁判方向。这与算法法官的运行“惯性”不同,是一种无法纳入模型的训练数据。法官在进行利益衡量时所考察的因素,也无法被人工智能技术所全部涵盖。算法法官总是基于既定的数据与因素,而人类法官则更加灵活,会与时代同时进步与发展。算法法官与人类法官的协同配合,一方面可以通过算法法官数据收集的高效率以及对类似案件的归纳总结,为人类法官提供参考意见。另一方面人类法官的经验和高敏感性,可以在案情复杂的疑难案件中弥补算法的解释性不足。

第二,普及专业技术和伦理学习,建立诉前培训、诉后反馈的良性机制。由于人工智能技术与法律具有专业门槛,并非所有的法官都能熟练运用人工智能技术。可以定期定向举办针对司法系统内部人员的人工智能技术培训,普及算法运用程序;设立相应的奖励机制,评选典型案例进行表彰,形成榜样作用;在结案后,收集技术专家、司法工作者以及案件相关利益群体对案件满意度的调查,形成反馈机制,确保人机交互的顺利进行。

2.审慎对待算法中的道德风险

第一,确立算法的渊源制度。梳理算法的法律渊源,将非正式法源纳入训练数据中。最高人民法院发布三批人民法院大力弘扬社会主义核心价值观的典型民事案例,旨在为司法裁判提供价值指引。社会主义核心价值观,体现了社会评判是非曲直的标准,是我国司法裁判的价值指引。智慧司法的进程中确立算法的渊源制度,不仅可以提高算法的可解释性、透明性,还可以以非正式渊源补充算法伦理道德因素的缺失,从而提高裁判结果的可接受性。

第二,将训练数据的语义参数化。通过对法律文本中权利义务的解构,将其重述、转换成符合司法语境的自然语言,以此描述司法活动。可以通过提取语义特征(其中包括语义的价值倾向)将其参数化,转换为一种能够被算法理解或处理的技术编码,便于利用这些参数进行学习和推理,通过建构算法模型以及设置参数空间等方式,将道德、伦理因素纳入算法之中。通过对参数的分析,提高算法的可解释性和可视化效果。

智慧司法中人工智能技术的应用并不是无限制的,并非所有案件都需要人工智能技术辅助司法裁判。明确人工智能技术的运行边界,建立完善的责任追究与监督机制。通过立法,明确算法设计的责任风险,以及算法运行应当遵守的道德义务,避免因法律责任不清导致算法形成道德漏洞。

(三)

提升算法模型的可信度:完善算法信任机制的体系建构

算法信任包括人们相信算法的准确性、公平性和可靠性的主观心态,也包括了人民相信算法所做决策不会给他们造成损害的心理信念。因此,要避免算法黑箱阻碍司法中人工智能技术的辅助应用,须提升算法模型的可信度,完善算法信任机制的体系建构。

第一,形成司法语境中算法的共识性信任机制。在智慧司法的语境中,算法信任机制的建构并非依托于法律的强制性规定,而是源于向一般民众展示其内部数据与模型的可信度和可靠性。无论是对司法实践中所运用的算法模型的可信度,还是通过算法所得到的裁判结果具有可信性,都是算法信任机制的组成部分。前者可以通过完善人工智能技术与我国司法实践交叉领域的法律法规,规范算法的数据组成,保证算法数据的多元化;提高算法的可解释性,充分诠释算法的内在逻辑与外在表征;增加多种展示途径,保证公民对算法的理解,形成稳定、可期待的算法模型。后者可以依托法律规范、行业准则以及技术所涉及的道德和伦理等多维度,保证运用算法模型得出的司法裁判依然具有真实性和较高的可靠性。

第二,规范算法模型的运作机制。人工智能技术作为智慧司法的辅助手段,算法模型的形成与应用某种程度与法律方法的运作过程相符。首先,明确算法模型的法律渊源,规范算法数据的选择,确保数据的真实性以及选择的算法模型符合所要适用的司法裁判;其次,规范算法模型的内在推理步骤,使得每一种指令具有唯一的指向性,从而保证算法模型运行的单向性;复次,算法模型须遵守内部证成和外部证成规则,模型的运作要符合法律论证的形式要件和实质要件;再次,算法模型须具有可解释性,算法的可解释性意味着算法可以被理解、被监督,法官可以对所适用的算法进行监督,而不是将审判权随着越来越多的职权下放给机器而变得迟钝,要警惕对数据的过分依赖以及数据的复杂性造成算法模型可解释性的缺失;最后,当算法模型无法解决某个法律问题时,可以通过人为手段对算法模型纠正和补充,优化算法服务机制,细化算法模型的适用场景,秉持社会主义核心价值观等主流价值导向,保证算法应用向上向善,为精准化的模型运作提供价值指引。

第三,建立完善的算法问责机制。“算法黑箱”现象的普遍存在,致使众多利益相关方及监管机构在算法“自主”运行与决策的过程中受到误导。这种现象不仅遮蔽了算法技术异化的核心机制,更难以揭示由此引发的深层次社会责任问题。通过制定与司法相关的算法安全治理的相关政策法规,明确主体权责,完善算法信任机制的多主体监督,形成良性的动态监管网络。智慧司法的语境下,重视除算法提供者和使用者之外的第三方主体,即基于算法模型得出的裁判结果的承担者。统筹算法模型的内部自查、法律的外部监督以及公众对算法模型的效果反馈,形成三位一体的协同监督体系。

结语

智慧司法的健康发展需要正视人工智能技术所蕴含的隐形偏见。人工智能技术通过收集和管理信息,为智慧司法提供平台化建设,通过将科技与法律推理相结合,为智慧司法提供技术支撑。但由于人工智能技术的解释性不足,算法缺乏明确的解释性标准,造成算法黑箱乃至算法霸权,从而阻碍智慧司法进程,造成司法公信力下降。因此,对人工智能隐形偏见的剖析有助于推动司法制度的改革,创建透明、可信的算法运行生态,有效防范智慧司法中由于算法偏见导致的潜在风险。

图片

往期精彩回顾

上海市法学会官网

http://www.sls.org.cn

图片

相关话题
  • 申卫星 :计算法学 · 中国法学自主知识体系建设的创新探索
  • 江海洋:从直觉到证据:大模型法律语料库与法律解释客观化
  • 《中国青年报》丨上海:从办好一个案子到破解一类难题
  • 迎接真正的法律AI时代|69名学者发起第一届“法律规则计算机表达”比赛
  • 上传裁判文书直接找相似类案的办法,全都在这儿了