来源:上海市法学会 东方法学
发布日期:2026年02月11日

随着大模型技术不断发展并赋能法治建设,应积极探索大模型赋能法治建设的应用场景及其规范化发展。大模型时代,应当完善社会主义法律体系的构建,将其嵌入数字行政系统以提升处理效率,同时严格监督检法机关的司法流程,最终引导法治社会转向均等普惠。法律垂域大模型建设应该在技术上实现高水平自立自强,通过知识蒸馏提升机器学习效率,并设置严格审查规范来克服AI幻觉,同时在理论框架中融入中国自主知识体系,在吸收中华优秀传统法律文化的基础上贯彻以人为本的核心理念。在大模型赋能法治建设时要完善包括法律规范与伦理规范在内的规范体系,并构建相应的规范监管框架。此外,大模型还应该赋能法治建设的全球化协同发展,积极推动全球对话,实现数据互通并设置专门的司法数据交流平台,同时通过开源共享与技术援助实现真正的协同发展。
引言
应用大模型技术赋能法治建设,已成为中国式法治现代化的重要选择。2025年3月11日,第十四届全国人民代表大会第三次会议通过《关于2024年国民经济和社会发展计划执行情况与2025年国民经济和社会发展计划的决议》(以下简称《2025计划》),其中明确提出了“人工智能大模型实现突破”,从而将大模型发展提升到国家战略的高度,并将大模型的规范化发展视为重大创新成果。早在2024年12月26日,最高人民法院发布的《人民法院第六个五年改革纲要(2024—2028年)》就明确提出“强化智能算法、大语言模型、数字模型等技术应用”。大模型在法律领域的情境理解、知识推理以及跨领域适应等方面的突出能力为其赋能法治建设,提供了全新的可能。此外,LexisNexis最新发布的《未来工作报告2025》(Future of Work Report:2025)显示,53%的受访法律人表示,大模型每天可以为其节约1—2小时工作时间;47%的受访法律人认为,大模型将深刻改变法律行业的实践。由此可见,大模型正逐渐从实验室转向与法律职业整体的深度联结。事实上,大模型在赋能法治建设的过程中可能因为自身技术不够成熟而招致司法实践争议,诸如算法黑箱、算法偏见等安全风险甚至可能侵蚀数字社会的整体安全。鉴于此,为了消除大模型赋能法治建设时的安全风险,应该从场景应用、技术迭代、理论建构、规范完善、全球对话五个维度展开大模型赋能法治建设的规范化建设,将良法善治理念嵌入大模型的算法机理之中,促使其能够满足人民群众对民主、法治、公平、正义、安全、环境等方面的美好社会生活需求,并推动大模型在法律规范框架内有序发展,打造符合中国式法治现代化核心要求的大模型技术风格,保障数字社会的公平公正。
一、积极探索大模型赋能法治建设的应用场景
在大模型发展过程中,场景应用维度的选择关系到其未来发展方向的整体定调,场景理论要求在处理具体问题时凸显具体场景特征的影响,而在不同场景中,外部影响与内部因素的混合加成会导致大模型在赋能法治建设时面临多重挑战。因此,在积极探索大模型赋能法治建设的应用场景时,应根据应用场景的差异来调整治理重心。随着习近平总书记在党的二十大报告中作出的“坚持全面依法治国,推进法治中国建设”总体战略部署的不断推进,应针对“完善以宪法为核心的中国特色社会主义法律体系”“扎实推进依法行政”“严格公正司法”“加快建设法治社会”四大法治核心建设场景,展开大模型赋能。
(一)
推动大模型赋能社会主义法律体系
在大模型赋能社会主义法律体系的过程中,依托大模型的信息感知、内容生成、意图识别技术可以大幅拓宽社会各方主体的立法参与途径,提升多层面、多渠道的立法信息采集能力。随着基于大模型的法规条文智能辅助生成系统的逐渐构建,重点领域、新兴领域的立法速度也不断提升,对此应该搭建具有智能识别意图的法规合宪性与合法性审查平台,增强新兴法律体系的系统性、整体性、协同性、时效性。尤其是在面对新兴领域的安全风险时,大模型可以推动大数据与人工智能法学进行多元化的知识融合,通过法学与自然科学的交叉融合抓住立法重心,并在立法时重点考察数字社会中安全风险的底层逻辑,进而在立法上促进新兴领域的风险治理向良法善治发展。
在大模型赋能社会主义法律体系时,要根据法律的生命周期来不断完善立法。首先,在社会主义法律体系设置前,大模型应该在规范框架内分析出各领域的具体风险,继而预先设置相应的监管法规。在这一过程中,大模型应该通过内部的衡量计算来得出最为均衡的立法策略,并基于算法可解释原则,“以人类可理解的语言向人类展示算法系统为何作出特定预测或决策的方法”,从而增强立法过程的可靠性。其次,在社会主义法律体系设置中,大模型应该动态调整现有法规的不足之处,保障社会主义法律体系内部的融贯性。社会主义法律体系是一个整体性系统,对于具体领域进行治理所需的法律之间应该有效衔接并使之共同发挥作用,但由于新兴领域复杂多变,某一法律的修改可能引发社会主义法律体系的整体失调,而大模型则可以“预测未来发展的风险和回报,并探寻出更有价值的处理路线,在人类水平(或更高水平)上进行学习和思考”,消除社会主义法律体系在内部衔接上的龃龉。最后,大模型可以借助社会主义法律体系的反馈调整自身算法,不断地分析和评估机器学习算法执行复杂操作结果的专业知识,并在后续立法上更新大模型对于不同利益冲突的衡量模式,进而在规范设置上更加科学、合理,且符合社会发展的需求。总之,大模型赋能社会主义法律体系的整体过程可以充分提升我国立法水平,尤其是在立法出现冲突时通过算法权衡可以提供更为科学的判断资料,并进行常态化的查漏补缺,以保持社会主义法律体系内部的融贯性。
(二)
扎实推进大模型嵌入数字行政系统
在数字社会,数字行政系统是提升行政效率、推动便民服务的重要举措,而积极探索大模型赋能依法行政则有助于真正落实数字行政。2025年8月21日,国务院发布《关于深入实施“人工智能+”行动的意见》,提出“加快科学大模型建设应用,推动基础科研平台和重大科技基础设施智能化升级”,充分体现出数字行政系统对于大模型的需求。当前,各地也正积极推进大模型嵌入数字行政系统。比如,安徽省将DeepSeek和星火大模型嵌入“皖政通”中;济南市将DeepSeek作为“黄小政”的“智能外脑”。质言之,大模型通过对执法笔录、处罚文书、日常文件的机器学习,能够融合应用自动化、智能化的包容审慎的新型行政执法方式,从而快速地识别行政违法、自动生成执法文书、精准防范潜在风险,同时有效地遏制数字行政系统中的违法决策、不当决策、拖延决策等行为,提升行政执法的效率与公信力,并结合行政活动的复杂程度进行数字化组织调配,将行政组织的职能内容通过数字化模式整合进数字政府中,进而整体提升数字行政系统的社会治理效能。
大模型嵌入数字行政系统之后虽然大幅提升了行政处理的效率,但是也隐含各类安全风险,为了防止安全风险影响数字行政系统的公平、公正,应该基于比例原则对大模型介入数字行政系统的尺度进行调整。比例原则要求行政权不仅有法律上的依据,还必须选择使相对人利益受到最小的限制或损害的方式来行使,并且其对相对人个人利益造成的损害需与所追求的行政目的或所要实现的公共利益相适应,从而达到既实现公共利益又保护公民合法权益的目的。比如,在数字行政系统收集公开数据并使用大模型预测公民的习惯、态度乃至行为时,为了避免产生超越一般水平的风险,应该基于比例原则合理限制大模型的适用尺度,并以保护公民个人隐私作为基准,在数字政务场景中明确大模型可以适用的领域与深度,以对公民个人隐私负面影响最小的方式来处理数据。
(三)
借助大模型监督检法机关严格司法
当前大模型应该赋能检法机关实现严格公正司法,并基于可解释机理实质阐述裁判结果背后的法律依据,在提升检法机关处理效率的同时保证裁判结果的公信力。事实上,2022年最高人民法院发布的《关于规范和加强人工智能司法应用的意见》第5条“辅助审判原则”就明确要“坚持对审判工作的辅助性定位和用户自主决策权,无论技术发展到何种水平,人工智能都不得代替法官裁判,人工智能辅助结果仅可作为审判工作或审判监督管理的参考”。该规范一方面肯定了大模型在司法审判过程中的积极作用,另一方面前瞻性地提出了大模型在司法审判中的实际定位,要求不能过度依赖大模型来全面负责司法审判。当前大模型赋能司法审判集中在“写”“析”“查”三方面,包括法律文书生成与审查、法律案件分析与研判以及法律规范检索与查询。随着大模型的进一步成熟以及技术准确性的进一步提升,大模型辅助法官和检察官认定事实、发现规范、生成文书将具有可行性。比如,将大模型“写”“析”“查”能力作为底座支撑检察监督模型的创建,有望赋能监督线索挖掘、同案不同判预警等工作。
事实上,大模型需要在具体案件中实现赋能检法机关的效果,并对检法机关的审判活动进行监督审查。一方面,大模型应该基于可解释机理辅助案件审判,在实质分析案情的基础上推动大模型深层次法律规范解读。可解释机理要求大模型以量化标准来展示案件的利益冲突,并以法律规范的具体要求作为衡量并解决利益冲突的实质标准,通过评估案件的因果关系作出具有可解释性的人工智能决策。这会使得最终生成的审判建议具有更强的科学性与说理性,从而避免算法黑箱。另一方面,检法机关在数字时代移送法律监督线索涉及跨部门、跨条线管理,需要以数字化推动多方协作、形成合力,建设并维护信息共享平台。此时,大模型可以常态化监管检法机关间的衔接龃龉,确保检法机关的司法活动流程符合法规要求,在形式与实质上确保司法公正。总之,大模型赋能检法机关严格司法,不仅在于从内部为案件处理提供更可靠的解决方案,并基于可解释原则优化案件说理,也在于从外部进行审查监管,通过技术手段提升审查监管的整体质效,以确保司法公正。
(四)
大模型引导法治社会转向均等普惠
在法治社会建设场景中引入大模型可以推动社会转向均等普惠,原本稀缺的法律资源可以在大模型加持下进行大规模传播,从而确保社会公众能以合理成本获得优质的法律服务。同时,大模型也可以通过机器学习不断降低运行成本,以在更广泛的社会事务中坚持公平正义。在当前法治社会中,大模型通过自身的交互能力、推理能力来搭建集法律问答和法律文书生成等功能于一体的法律服务系统,在此基础上有望打造出面向不同人群的普惠化公共法律服务智能体,同时大模型也可以自动化生成普法短视频、法治宣传文案,实现自媒体和官方媒体的相互融合,从而推进普法宣传的城乡全面覆盖。在大模型赋能法治社会构建的过程中,需要实质分析当前社会发展的需求,在强调公平正义的同时,注重实质公平。换言之,大模型在提供均等普惠的法律服务时,要充分注意用户端的实际需求。比如,东南大学推出的“法衡”,作为国内高校首个面向法律领域的深度推理垂域大模型,在机器学习阶段就坚持“条款释义→场景推演→体系关联”的知识解构三阶训练法来揭示法规条文间的网状逻辑关系,以提升知识密度和处理效率。同时,其可根据具体处理场景的差异提供不同的思维逻辑,让公众根据自身的需求选择合适的处理模式,此外还能为数字社会弱势群体提供更为高效且友好的智能化法律服务,从而实现真正意义上的均等普惠。
二、加快实现法律垂域大模型技术整体高水平自立自强
法律垂域大模型是专门设计用于法律领域,满足法律场景对准确性、公正性的严格要求,并具有极强的法律语言理解、专业任务泛化和可信知识生成能力的一种基于大语言模型的生成式人工智能系统。法律垂域大模型兼具技术属性与社会属性,为了推动我国法治现代化建设,需要推动法律垂域大模型的技术创新与迭代升级,实现其高水平自立自强。具体而言,需要根据我国司法实践现状设置切合实际的法律垂域大模型,在通用模型的基础上融入法律领域的高精度定位、细粒度理解、复杂逻辑推理、长法律文本处理等专有需求,并使其在机器学习的基础上实现“自我成长”,克服机器学习效率以及AI幻觉这两大难题。
(一)
法律垂域大模型通过知识蒸馏提升机器学习效率
当前,法律垂域大模型已经在法律领域取得显著效果,却仍然因为自身技术水平受限而面临法律语言理解困难、专业任务处理不精准等难题。法律垂域大模型的机器学习是将法律语言进行代码化处置,贯彻“代码即法律”宗旨,随后累积并完善其对决策领域的“理解”,提炼输入数据特征之间的相关性,并通过给这些特征赋予权重来反映其重要性,最终机器学习一种或多种功能。但是,这种传统的机器学习方式的算力成本较高,尤其是在法律领域进行一对一的机器学习时,可能会导致处理成本飙升。鉴于此,当前亟须在法律垂域大模型的机器学习过程中推广知识蒸馏模式来提升学习效率,以最低的学习成本将教师模型所具有的法律理解与推理能力高效地迁移到学生模型中。
在法律垂域大模型的知识蒸馏过程中需要遵循法律规范的要求,对教师模型与学生模型之间的知识传递过程进行有效的法律监管。一方面,在教师模型的知识蒸馏过程中嵌入算法可解释机理,将丰富的法律知识作为教师模型算法的知识库,通过算法实质解读法规要求并将其转化为处理程序,同时梳理已有的处理经验和利益权衡模式来提升算法模型的可解释性。另一方面,在学生模型的知识蒸馏过程中预先设置法律监管框架,防止学生模型在学习教师模型算法时泄露代码核心内容,并避免出现窃取算法行为,同时要求其根据法律规范处理司法实务问题,而非对教师模型亦步亦趋,在处理过程中也要注意避免公民个人隐私的泄露。总之,在规范框架下推动法律垂域大模型进行知识蒸馏,可以在提升机器学习效率的同时减少算力消耗,此外教师模型与学生模型在思维上具有承继性,也可以避免不同法律垂域大模型之间出现算法逻辑冲突,从而更好支持公正司法。
(二)
法律垂域大模型设置严格审查规范克服AI幻觉
法律垂域大模型由于其自身不足极易产生AI幻觉,而这将严重动摇司法公信力,并成为法律垂域大模型在司法实践中推广适用的阻碍。根据斯坦福大学团队的测试,即使是美国最先进的大模型,在查询特定法律时也存在69%-89%的AI幻觉率。而美国联邦最高法院首席大法官约翰·罗伯茨则在2023年《联邦司法系统年度报告》中专门“吐槽”了大模型的法律知识幻觉,认为AI幻觉所生成的错误的法律简报大大损害了司法公信力。鉴于此,法律垂域大模型在未来需要克服AI幻觉以增强其实际可行性。最高人民法院在2024年推出了“法信法律基座大模型”,而苏州市中级人民法院、深圳市中级人民法院和合肥市中级人民法院也先后开展了法律垂域大模型的探索,并引入了各大高校共同研发的法律垂域大模型。比如,东南大学的法律垂域大模型“法衡”推动了关键技术自主可控、应用场景自主拓展、规范标准自主制定、行业生态自主建构、技术安全自主保障,为克服AI幻觉提供了前期准备。
法律垂域大模型在克服AI幻觉时应该设置严格的审查规范,并据此设置高效精准的审查程序。首先,在法律垂域大模型发布伊始,就应该完善审查备案。比如,将深度学习后理解用户指令的神经网络和大语言模型进行事前备案,在实现智能化人机交互的同时以规范形式明确信息处理尺度,在面对事后争议时通过备案内容进行溯源治理,防止事后追责争议。其次,法律垂域大模型应该在规范框架内完善自身的法律数据库,由权威司法机关提供权威法规条文,并将其作为“唯一事实源”,要求法律垂域大模型在输出时必须绑定具体条文或者判例原文,阻断其因AI幻觉编造法条与案例的可能性,通过权威司法机关的外部介入来规范法律垂域大模型的内容输出。最后,在规范监管框架内,要求法律垂域大模型事先根据案件的复杂程度,将其分为高风险案例与低风险案例;在低风险案例中按照规范流程进行处理与输出,在高风险案例中则须进行人工复核,在处理可能存在争议的案例时保持审慎态度。这种“智能处理+人工复核”的处理模式将大幅降低因为套用其他案例而导致AI幻觉的概率,同时通过强化审查消除AI幻觉的负面影响。
三、全面建构大模型赋能法治建设的中国自主知识体系
中国法治现代化需要以自主知识体系为核心支撑,深入挖掘、合理吸收中华优秀传统法律文化的智慧结晶,并在大模型建构过程中对优秀传统法律文化实现创造性转化与创新性发展。随着大模型深度融入立法、司法、执法、守法各个环节,传统的法学理论、制度框架与实践范式正面临深刻重塑,因此要将大模型放置到中国法治现代化建设的整体战略布局中,基于大模型赋能中国法治建设的丰富经验来系统性回应技术对法治变革带来的深刻挑战,同时加快完善中国自主知识体系,并在融入中华优秀传统法律文化的基础上强调以人为本的理念。
(一)
在大模型赋能法治建设中融入中华优秀传统法律文化
大模型赋能法治建设的过程中,要融入中华优秀传统法律文化,在技术主导的大模型中嵌入我国法治建设的智慧结晶,在中国自主知识体系下将人工智能技术与优秀传统法律文化合二为一。中华优秀传统法律文化一直都在社会治理中扮演重要角色。比如,《尚书·多方》所载的“明德慎罚”理念就是符合中华优秀传统法律文化的刑事法治思想,其中“明德”是指“崇尚道德,统治者应自律并对人民施以耐心的教化”,“慎罚”则是“慎中厥罚”之缩语,指刑罚符合“中”的要求,实现轻罪轻罚、重罪重罚,这与当前强调的罪责刑相适应原则有共通之处。大模型在赋能法治建设时应该充分吸收“明德慎罚”理念。一方面,在利益衡量时基于“明德慎罚”理念精准判断法益损失,选择与法益损失相协调的刑罚措施,并坚持刑法谦抑性,以避免处罚过当;另一方面,应当调整大模型自身的技术机理,构建有利于大模型健康有序发展的制度环境与规范体系,设置“法律—伦理—技术”的协同治理体系,将“明德”与“慎罚”协调后,共同推动“负责任的人工智能”的发展,最终构建契合数字社会伦理价值取向与技术发展机理的人工智能法律体系。
事实上,在大模型赋能法治建设的过程中融入中华优秀传统法律文化,不仅可以提升大模型的处理效率,还能增加社会公众对大模型的接受程度。中华优秀传统法律文化在当前社会中的接受程度较高,但大模型的高速发展使得公众在数字社会中处于弱势地位,最终导致公众对大模型普遍具有不信任感。而大模型吸收中国自主知识体系中的中华优秀传统法律文化用于自身建设,则可以推动其在算法决策时更多地考虑公众利益与观感,并结合社会发展实况来解释法律规范,从而在司法实务上更契合公众的真实需求。质言之,大模型在赋能法治建设时需要吸收中华优秀传统法律文化来指引技术应用。一方面,对技术进行柔性化治理,确保大模型能够从多元化视角处理司法争议,避免机械地适用法律规范;另一方面,基于传统文化语境来合理约束技术应用,避免大模型借助技术优势深度介入公众日常生活,降低大模型赋能法治建设的潜在风险。总之,在大模型赋能法治建设中融入中华优秀传统法律文化,可以增强大模型的普适性,并在司法决策时借助优秀传统法律文化来调整法律适用路径,从而作出更为合理的决策。
(二)
在大模型赋能法治建设中贯彻以人为本的核心理念
在大模型赋能法治建设时要贯彻以人为本的核心理念。以人为本是中华文化中“对公众的慈善或对人类利益的尊重”的公序良俗原则的直接体现。若大模型贯彻以人为本理念,则可以使其充满人性色彩。事实上,联合国教科文组织早在2021年发布的《人工智能伦理问题建议书》中就提出要“尊重、保护、促进人权、基本自由及人类尊严”,我国在2023年发布的《全球人工智能治理倡议》中也再次强调以人为本的人工智能发展的基本立场。因此,在我国大模型赋能法治建设时强调以人为本,不仅对内能满足公众合理诉求、合理设置人工智能的应用边界,对外也能推动构建人类命运共同体、推动人工智能领域的国际合作。
第一,大模型在赋能法治建设时不仅要通过新兴技术满足人类需求,还要在规范框架下保障个人权利、增进人类福祉,保障人类生命的基本权利和价值观。在以人为本的理念下,大模型需要结合公民个人发展需求来调整自身运行方式,注重保障公民个人权利,使公民能用其统筹分析案件的具体数据,并基于算法透明原则来解释算法决策的运行机理,实现对公民知情权的尊重。事实上,以人为本理念督促大模型在处理司法实践争议时尊重公民个人权利,为技术处理路径划定责任边界。尤其是在处理涉及公民个人隐私的相关内容时,以人为本理念要求大模型在处理时以公民个人利益为根本出发点,当出现利益冲突时,技术效率需要为公民个人利益让步,以避免公民在人工智能时代沦为数字弱势群体;相应地,公民也会更信任以人为本的大模型所作出的算法决策是公平合理的。
第二,以人为本理念可以推动大模型在国际领域进行有效交流合作,这不仅符合现有的国际人道主义要求,即在决策过程中避免用非人类的计算机与程序来完全取代人类决策,还能通过技术交流的方式增加中国自主知识体系的国际影响力。事实上,面对大模型潜在的技术风险,域外也凭借以人为本理念来加以预防。欧盟人工智能高级别专家组编写的《可信赖的人工智能伦理准则》中第一项就是“人类代理和监督”,具体包括生命伦理学的四项原则,即尊重自主原则(Respect for Autonomy)、不伤害原则(Nonmaleficence)、有利原则(Beneficence)、公正原则(Justice),并新增了可解释性原则(Explicability),而基于以人为本理念所构建的大模型在处理司法争议时将大幅缓解技术与人类之间的矛盾。鉴于此,我国大模型在赋能法治建设时也应该积极贯彻以人为本理念,在与域外大模型交流时将“以人为本”作为合作的“最大公约数”。比如,在推动数据跨境流通时,面对不同国家和地区大模型的数据流通尺度差异,将保护个人法益作为数据跨境流通的核心诉求。在国内大模型处理跨境数据时坚持以人为本,亦能降低数据跨境风险以更好地推动跨境流通。
四、完善大模型赋能法治建设的规范体系衔接
在大模型赋能法治建设时应该构建完善的法律规范体系来保障其有序发展。其既要防范技术风险,又要促进创新发展,最终实现技术进步与法治价值的有机统一。具体而言,法律规范体系包括伦理规范和法律规范,应该结合大模型的实际需求调整规范内容。一方面,明确大模型的实际运行边界,在保障安全的基础上尽可能扩充适用范围,在规范框架内推动大模型升级;另一方面,重视大模型对于当前社会造成的价值观冲击,将社会中既定的伦理要求转化为切实可行的伦理规范,并与法律规范相互衔接来营造良好的适用环境。
(一)
系统完善大模型赋能法治建设的法律规范
在大模型赋能法治建设时,应当完善相应法规、政策指引、行业标准以及安全规范,通过领域性专门立法消除大模型被不同部门法分散规制所产生的分歧,并从激励和约束两个维度来保障大模型赋能法治建设创新。一方面,国家通过政策指引设置法律领域需求来引导市场主体积极研发法律垂域大模型;另一方面,行业标准与安全规范可以应对大模型在法律价值对齐等方面的风险。
第一,在系统完善大模型赋能法治建设时需要秉持包容审慎的激励政策。《2025计划》中明确提出“人工智能大模型实现突破”,这为大模型赋能法治建设设定了基调。随后国务院在《关于健全“高效办成一件事”重点事项常态化推进机制的意见》中,提出“在确保安全的前提下稳妥有序推进人工智能大模型等新技术在政务服务领域应用”,与《2025计划》形成有效呼应。在宏观政策上,我国不仅对大模型赋能法治建设秉持激励态度,充分强调在技术领域实现突破,还要求在确保安全的前提下以稳妥有序的方式开展建设,并基于包容审慎的政策来推动技术的有序发展,为约束性行业标准与安全规范提供政策依据。鉴于法治建设关系到司法公信力,如若贸然引入大模型进行全面应用,则可能因为技术与规范间的不协调而损害司法公信力,导致大模型赋能法治建设与公众之间产生疏离感,而包容审慎的激励政策则可以在激励技术发展与推动安全监管之间寻求平衡。
第二,在系统完善大模型赋能法治建设时需要设置并细化约束性的行业标准与安全规范,基于大模型技术机理设置合理且详细的行业标准,并在安全规范中强调大模型赋能法治建设的全流程安全。一方面,约束性行业标准应该结合法治领域的实际需求与大模型的技术模式,将约束大模型的负面因素降至最低。《人工智能大模型第1部分:通用要求》(GB/T 45288.1-2025)便是典型的大模型通用行业标准,但在赋能法治建设时,需要根据法治建设的实际需求对其进行调整。另一方面,安全规范要求构建全流程的安全监管体系以预防潜在风险。在全流程安全监管体系中,为了预防大模型价值对齐的潜在风险,要重视语料安全与模型安全,在事前严格审查监管法律的基础语料库,删除涉及意识形态的敏感与偏见语料,而后全面监管模型算法,并将生成法律内容的安全性纳入评价指标,最后根据安全监管体系的反馈结果进行溯源性审查,修正存在安全风险的任务节点,在语料库中强化学习且对齐语料数据,消除后续的安全隐患。总之,行业标准与安全规范需要对大模型赋能法治建设提供合理约束,明确大模型在法治建设领域的应用边界,并根据法治建设的实际需求来消除潜在安全隐患,最终保障大模型赋能法治建设的全流程安全。
(二)
系统完善大模型赋能法治建设的伦理规范
在大模型赋能法治建设时要完善相应的伦理规范,将技术发展过程中尚不完整的伦理要求整合成为具体的伦理规范。具体而言,通过构建大模型赋能法治建设的负面应用清单,提示大模型在法律领域使用的潜在风险,并在明确大模型在立法、执法、司法等场景的使用边界时也参照相应的伦理规范,从而在法律组织内部推动法律职业群体负责任地使用大模型,通过伦理规范来明确开发者、使用者在不同环节的法律责任。
完善伦理规范需要从其产生来源入手进行溯源分析,并结合大模型的运行环境提升伦理规范的针对性。首先,在人工智能时代,以往“公德为主,私德为辅”的伦理准则将会逐渐被替换为“私德为主,公德为辅”。这意味着,伦理规范的内容需要围绕公民的实际需求展开。鉴于大模型相对于一般公民处于绝对优势地位,因此伦理规范应该积极尊重并保护公民合法权益,取代技术理性视角下的单一规范,以更加多元的视角丰富伦理规范。尤其要补充数字社会中公认的道德规范要求,这不仅能在伦理规范中彰显人本思维,还为人工智能立法提供价值衡量经验,从而构建基于个人权益保护的人工智能法律规范体系。其次,大模型的快速变革意味着伦理判断路径也处于动态,如果仅基于短期内的伦理秩序保护而动辄对大模型施以制裁,则大模型赋能过程可能过度受限。比如,意大利在最新发布的《人工智能法》第3条一般规则中提出了“禁止歧视”“性别平等”等伦理规范,但同时要求“必须将通用人工智能系统及模型全生命周期的网络安全作为基本前提,并基于风险实施相称的特定安全管控措施,以保障人工智能系统抵御篡改其用途、预期运行方式、性能或安全配置等恶意行为的能力”,而“模型全生命周期”“预期运行方式”的表述则意味着需要基于大模型的全生命周期制定动态的伦理规范,实现动态化的全面保护。鉴于此,在制定伦理规范时应该结合大模型技术发展进程进行前瞻性设置,在动态调整伦理规范诉求的同时保持核心内容的相对稳定,从而以合理的动态化伦理规范柔性指导大模型的技术发展路径,在执法、司法等场景为大模型技术发展提供更高的包容度并最终落实为人工智能立法。最后,大模型应当在法律教育现代化中提供个性化、一对一辅导,以增强学生的学习和参与潜力。但是,由于大模型的工具性思维可能与法律教育相冲突,因而在大模型赋能法律教育过程中应该融入伦理规范。比如,意大利《人工智能法》就提出“建立人工智能系统应用,普及教育与培训体系”;欧盟《人工智能法》也提出要在教育领域“通过改进预测、优化运营和资源配置,为个人和组织提供个性化的数字解决方案”;而欧盟《可信赖的人工智能伦理准则》则是方案制定中必须考虑的规范要求。换言之,在大模型赋能法律教育的过程中需要强调伦理规范,促使开发者、使用者在大模型赋能伊始便秉持正确的伦理价值指引。伦理价值指引将帮助开发者、使用者在面对法规缺失时基于正确的社会导向来加以选择,并在大模型算法衡量法律规范时减少工具理性的负面影响,转而增加良法善治的人本性思维,促进法学教育高质量发展,推动法治文明和数字文明融为一体。
五、实质化推进大模型赋能法治建设的全球化协同发展
中国式法治现代化建设的未来蓝图离不开大模型提供的实质赋能。在未来的法治发展过程中,任何一个国家都无法置身事外,大模型会成为各国在法治领域凝聚共识的“黏合剂”。大模型赋能法治建设可以构建开放包容、互利共享的全球化协同发展新格局。《全球人工智能治理倡议》中提出“逐步建立健全法律和规章制度,保障人工智能研发和应用中的个人隐私与数据安全”,同时“面向他国提供人工智能产品和服务时,应尊重他国主权,严格遵守他国法律,接受他国法律管辖”。这充分体现出我国通过大模型赋能全球化法治协同发展的愿望,而大模型的发展不仅要尊重其他国家的法律制度,同时也要寻求法治建设的共识。
(一)
实质推进大模型赋能法治建设的全球对话
随着我国发布《全球人工智能治理倡议》,大模型赋能法治建设的全球对话随之启动,我国一直以来倡议推动在联合国、二十国集团、上海合作组织、金砖国家等多边平台设立“大模型赋能法治建设”议题,倡导构建大模型赋能法治建设的伦理标准、数据安全规范和责任机制,从而在规范上推动全球各国在法治建设领域的有效衔接并建立常态化的国际交流机制,分享各国实践经验,以逐渐搭建中外检法机关跨境司法对话机制。
第一,实质推进大模型赋能法治建设的全球对话要规范司法数据的互联互通途径,在保障司法数据安全的前提下展开交流沟通,为跨境犯罪治理提供基础数据支撑。事实上,若涉及国家安全的重要数据被非法流转至境外、为境外主体所控制,则其引发的数据安全风险会成为国家安全风险。司法数据关系到我国司法主权,属于涉及国家安全的重要数据。因此,在该数据的跨境传输过程中要尤为审慎,否则不但无法帮助大模型赋能法治建设,还可能造成国家安全风险。在总体国家安全观的指引下,司法数据的跨境传输首先要事前审查数据中是否存在敏感涉密内容,只有安全、可靠且对跨国司法合作有益的数据才可以进行传输。其次,应构建专门的传输渠道,避免混用其他渠道导致数据泄露。此外,还应当考察域外大模型的数据处理方式,避免域外大模型违规处理数据,并通过事前备案与事中审核以消除潜在风险。
第二,实质推进大模型赋能法治建设的全球对话要设置专门的司法数据交流平台,以平台为枢纽推动国际司法合作,并以大模型作为平台的底层算法逻辑框架,推动信息化互动与智能化处理。随着新兴犯罪的损害范围大幅扩张,大模型在赋能法治建设的全球对话过程中不仅是单线程联系,更多情况下还可能是多线程互联互通,因此要通过司法数据交流平台作为沟通的连接点。在沟通过程中,平台引入大模型作为底层算法逻辑框架可以更好地处理司法数据以生成更为准确的结论,或者提出更为科学的处理策略,并基于公平公正的视角提出合作倡议。这将大幅促进国际司法合作,推动各国共同应对新兴犯罪风险。质言之,专门的司法数据交流平台应当将大模型作为核心架构,更好地推动国际间的司法合作,并完善相应的监管法规,避免大模型在处理司法争议时产生算法偏见,从而保持司法公正。
(二)
实质推进大模型赋能法治建设的协同发展
在实质推进大模型赋能法治建设协同发展的过程中,应该在规范保障下推动开源共享和技术援助,让其他发展中国家也受益于大模型法治创新,并参与共建人类命运共同体。在协同发展模式下,大模型才能应用于国际间司法交流合作,而合作本身也将反哺大模型技术升级,开源模式与技术援助将在保障司法公正的同时,提升案件处理的整体质效。
第一,在协同发展过程中应该推动大模型开源共享,基于国际化视角分享优秀算法,并发起“全球法律大模型开源联盟”的建设,共同打造法律领域的新型智能基础设施。在开源共享模式下,大模型可以推广先进的司法实务经验,而法治不发达的国家也可以依据开源的大模型框架来降低智慧司法的建设成本。与此同时,大模型通过开源模式还可以提升司法疑难案件处理能力,将积累的案件经验用于改进大模型算法,并反馈至国内的法律垂域大模型,从而为我国法治建设提供更加多元的视角。这种良性的双向互动将充分体现开源模式的应用价值,推动大模型在开源模式下的进一步发展。
第二,在协同发展过程中应该推动大模型提供技术援助,依托“一带一路”倡议等合作框架来共建“丝路AI法治创新中心”,联合攻克技术难题,并设立“全球南方AI法治技术转移中心”,向其他发展中国家提供轻量化的法律垂域大模型解决方案,以及提供技术培训与服务支持。最高人民检察院检察长应勇在参加第七次金砖国家总检察长会议时就提出以下建议:“一是加强执法司法协作,共同应对数据安全威胁……二是加强法律问题研究……完善人工智能领域法律法规、伦理规范,保护人工智能技术创新和产业发展;三是加强专业能力建设,交流分享各国在司法工作中运用人工智能的实践经验……共同提高人工智能领域执法司法质效。”上述建议围绕大模型赋能数字检察展开,强调在应用大模型时展开技术交流,通过规范制度来保障大模型赋能法治建设的技术援助的安全、可靠。我国在《全球人工智能治理倡议》中也提出,技术援助“应尊重他国主权,严格遵守他国法律,接受他国法律管辖”。这是我国法律垂域大模型进行技术援助的核心宗旨。具体而言,在提供技术援助时,我国可以结合他国法规进行适当调整,并根据他国司法实践现状来调整算法衡量尺度,使技术援助可以取得更好效果。这也有助于我国与其他国家之间进行交流合作,真正实现协同发展的目标。
往期精彩回顾
上海市法学会官网
