logo
话题

来源:国浩律师事务所

发布日期:2025年09月18日    


摘要: 随着人工智能(Artificial Intelligence, AI)技术的迅速发展,人类社会迎来了深刻的变革。在提高效率和便利生活的同时,人工智能也对传统法治体系提出了前所未有的挑战。现有法律在主体认定、责任归属、隐私保护、算法透明等方面存在诸多空白和滞后。本文从人工智能的技术特性出发,探讨其对法治理念和制度结构的冲击,梳理国内外法律应对经验,提出以“风险导向、权责对称、伦理嵌入”为导向的法治重构路径,旨在为构建人工智能时代的现代法治体系提供理论支撑与制度建议。

目 录

一、引言

二、人工智能的技术本质与法律问题

三、人工智能对传统法治体系的冲击

四、国外人工智能法律规制经验

五、中国法治建设的现实困境

六、面向未来的法治建设路径

七、结语

01

引 言

人工智能技术正在深刻改变社会生产、生活和治理方式,其广泛应用于交通、医疗、金融、司法等多个领域,推动智能社会的快速到来。与此伴随的是大量前所未有的法律问题,包括智能系统行为的责任认定、算法偏见导致的歧视、个人数据滥用、技术透明性缺失等 [注1] 。在此背景下,如何通过法治手段规范人工智能的开发与应用,构建既能保障创新又能防范风险的法治体系,成为亟待解决的重要课题。我国高度重视人工智能的发展,并将其上升为国家战略。《新一代人工智能发展规划》明确提出要构建与人工智能协调发展的法律法规、伦理和政策体系 [注2] 。然而,现阶段我国人工智能领域的法律规范尚不完备,存在立法滞后、执法困难、伦理缺位等问题,法治建设任务艰巨而复杂。因此,本文从人工智能的本体特征出发,分析其对传统法治体系的冲击,梳理当前我国法治建设面临的主要挑战,并借鉴国外先进经验,提出具有可操作性的制度应对路径。

02

人工智能的技术本质与法律问题

随着人工智能技术的飞速发展,其在现实社会中的应用场景愈发广泛,不仅深刻重塑了经济结构和社会关系,也对现有法律体系提出了严峻挑战。人工智能作为一种全新的技术工具,其技术本质与运行逻辑不同于传统的自动化系统,其自主性、非人格性、数据依赖性等特点,使得它在法律适用中暴露出大量制度空白,尤其在行为归责、权利保障和伦理规制等方面引发复杂的法律争议。

(一) 人工智能的主要特征

人工智能是一种能够模拟甚至替代人类部分智能活动的复杂计算机程序或系统,其核心能力包括自主学习、逻辑推理、模式识别和复杂决策。其基础支撑技术主要包括大数据处理能力、机器学习算法(尤其是深度学习模型)以及强大的算力平台 [注3] 。通过对大量数据的训练,AI系统能够实现自我迭代与优化,从而在特定任务中展现出高度的适应性与“类人智能”行为。与传统程序按照预设规则运行不同,人工智能的“自主性”表现为其在运行过程中能够在无明确人类指令的情况下自主作出判断,这使得其在某些场景下的行为后果难以由人类完全预判或控制。同时,人工智能本身并非自然人或法人主体,其“非人格性”属性使其难以被纳入现有民事或刑事主体体系中。这种“具有行为能力但无主体资格”的技术形态,模糊了传统法律中的“行为—责任—制裁”三段论基础结构 [注4] ,进而造成在AI系统引发法律纠纷时责任难以划定的问题。例如,AI生成内容(如ChatGPT生成的文本、Midjourney生成的图像)是否构成著作权主体所创作,以及若该内容侵权,责任应由谁承担,均成为当前理论界与实务界的重大争议焦点。

(二) 人工智能引发的主要法律问题

人工智能技术在各领域广泛应用的同时,因其复杂性与不可预见性,也带来了多维度的法律风险与挑战。以下四类问题尤为突出:

1. 责任归属不清

人工智能系统在运行过程中所引发的损害事件,责任主体往往难以明确。在自动驾驶领域,若发生交通事故,责任应归属于算法开发者、汽车制造商、系统运营商,还是最终使用者,尚无统一法律规定 [注5] 。传统侵权责任法强调行为人与损害结果之间的直接因果关系,但在AI运行中,“人—系统—结果”之间常常存在多个中介环节,使得因果链条断裂、责任认定模糊。例如,美国亚利桑那州自动驾驶测试车辆致人死亡案件中,涉及Uber公司、驾驶员、软件开发商、传感器供应商等多方主体,最终责任划分颇具争议。

2. 算法歧视

人工智能依赖对历史数据的学习,而数据本身可能携带性别、种族、年龄等偏见,在没有恰当筛选和纠偏的情况下,算法容易输出歧视性结果。例如,在人力资源筛选、金融信贷审批、司法量刑辅助等领域,已有案例表明AI会在无意中强化社会结构性不平等 [注6] 。此外,人工智能系统尤其是深度学习模型,其决策路径不透明、不具可解释性,使得外部监管难以进行有效干预。这不仅增加了技术滥用的风险,也削弱了法律救济的有效性和公众对AI系统的信任。

3. 个人数据保护不足

人工智能的运行高度依赖对用户行为、偏好、生物特征等信息的广泛收集与深度分析,这在技术上提高了模型的精准度,但在法律上则引发了严重的隐私风险。我国虽然已于2021年颁布《个人信息保护法》,明确了数据收集的合法性边界、处理原则及用户权利保障机制 [注7] ,但在实际操作中,存在知情同意形式化、用户选择权被架空、个人信息滥用泛化等突出问题。例如,一些App在用户不明确知情的情况下获取其位置信息、面部信息或通话记录,用户难以有效拒绝或撤回授权,法律规制力明显不足。

4. 伦理审查机制缺失

当前,部分人工智能技术应用已超越了传统伦理的容忍边界,典型如人脸识别、情绪识别、AI换脸、AI模拟已故亲人声音等。虽然技术提供了便利或满足某些市场需求,但若缺乏严格的伦理审查机制,极易引发人权侵害、身份误用、情感操控等严重后果 [注8] 。目前我国在伦理层面的规范多为倡议性文件,缺乏强制执行机制。例如,《新一代人工智能伦理规范》等政策文件虽提出“以人为本”“可控安全”的原则,但在技术实践中缺乏刚性约束,企业伦理自律程度不一,存在较大合规风险。

人工智能的技术属性决定了其具有极强的开放性、不确定性和跨领域性,远超传统技术监管的能力边界。若现行法律体系无法与时俱进地回应这些新兴问题,势必在未来人工智能治理中面临“无规可依”与“无责可追”的双重困境。因此,从制度设计角度出发,亟须明确人工智能系统的法律定位,健全相关法律规范与责任体系,推动形成权责清晰、风险可控、伦理合规的人工智能治理体系。

03

人工智能对传统法治体系的冲击

(一) 法理结构的解构

传统法律构建基于主体清晰、因果明确、意志理性的逻辑假设。然而AI行为可能不具备明确意志,且决策路径非人类可直接控制,其产生的后果具有一定“偶发性”与“不可解释性”,挑战法律对“可预见性”的要求 [注9] 。

(二) 规则体系的滞后与碎片化

我国目前对AI的法律规制多散见于《数据安全法》《网络安全法》《个人信息保护法》等部门法中,缺乏统一的AI治理立法框架与系统化制度设计 [注10] 。立法条文多属原则性表达,缺乏操作性细则,执法机关面临解释难与执行难的问题。

(三) 司法应用中的风险与应对

在司法领域,AI辅助系统如智能量刑系统、裁判文书生成系统已初步应用,但也存在程序失当、过度依赖等风险。AI生成的法律判断是否具备法律效力、能否被监督,仍属争议焦点 [注11] 。

04

国外人工智能法律规制经验

欧盟:风险导向+合规审查

欧盟于2021年发布了《人工智能法案草案》,构建以“风险等级”为核心的监管框架,将AI系统分为“不可接受风险”“高风险”“有限风险”“最小风险”四类 [注12] 。对高风险AI要求履行透明性义务、数据质量控制、记录保存与人工监控等合规责任。

此外,欧盟还设立“欧洲人工智能委员会”负责监督合规审查与跨境数据流动问题,强调人类监督和伦理嵌入原则。

美国:产业优先+软性规制

美国在AI监管方面采用较为宽松的策略,强调自律与产业发展并重。主要依靠行业标准与伦理指南(如NIST框架)指导企业行为 [注13] 。2022年《AI权利法案蓝图》提出五项基本原则,包括安全、公平、透明、可控、隐私保护,但缺乏法律强制力。

德国、英国:伦理委员会+多元治理

德国设立“数据伦理委员会”,英国设立“人工智能治理委员会”,通过公共参与与伦理审查机制引导AI治理。强调多元主体共治、科学评估与利益平衡。

05

中国法治建设的现实困境

(一) 制度碎片化与滞后性并存

尽管我国在数据、网络、个人信息等方面已有法律基础,但对AI系统的专门规制仍缺位。相关制度多属行政规章或行业指导意见,约束力弱 [注14] 。立法层级不高、制度衔接不畅成为突出问题。

(二) 监管机制不清与资源不足

AI技术涉及多领域,现行监管主体包括工信部、网信办、市场监管总局等,但职能交叉、职责不明,监管标准缺乏统一,地方执法部门在实践中执行能力薄弱。

(三) 公众参与不足与伦理建设滞后

公众对AI的风险认知不足,普遍存在“技术崇拜”或“盲目信任”,使得AI违法应用缺乏舆论监督基础。同时伦理审查制度未能实现法制化,伦理规范缺乏强制约束力。

06

面向未来的法治建设路径

(一) 推动AI专门立法,构建系统规制框架

人工智能技术的快速发展呼唤法律体系的及时回应。建议尽快启动并制定专门性的《人工智能法》,以填补当前法律规制的空白。该法律应在广泛调研、统筹协调现行法律基础上,明确人工智能系统的法律定义、使用场景的法律适用范围、各类主体的法律责任归属(如开发者、部署者、使用者等),以及在出现违法情形下的处罚机制和补偿路径。立法过程中应坚持“包容审慎”原则,既不能因过度监管抑制技术创新,也不能放任技术发展而导致监管失灵。在立法技术上,应将《人工智能法》设计为基础性、原则性、统领性法规,并通过专门立法与行政规章相配套的方式,构建横向系统整合、纵向领域覆盖的法律规制框架。

(二) 建立算法透明机制与可解释标准

人工智能系统特别是基于深度学习的模型,其“黑箱”特性对法律责任划分、行政监管和公众监督构成重大障碍。为此,应建立算法透明机制,通过立法确立高风险AI技术的“可解释性”标准和“可审计性”制度。对金融、医疗、公共安全、司法等重点领域的AI系统,应实行算法备案制度与风险等级评估机制,明确哪些算法必须公开其核心逻辑、训练数据来源与决策路径。企业和技术开发者需对其使用的AI模型提供技术说明文档与审计记录,供监管部门和相关利益方查阅。此举不仅保障公众的知情权、解释权与异议权,也有助于在发生纠纷时厘清因果关系并实施精准问责 [注15] 。

(三) 强化数据治理与个人权利保护

AI系统的核心运行逻辑基于对海量数据的依赖,因此必须将数据治理作为AI法律规制的关键环节。首先,应在现有《数据安全法》《个人信息保护法》的基础上,细化与人工智能直接相关的数据处理规则,如明确AI训练数据中的“脱敏处理”标准、“数据最小化”原则与“合法用途限定”义务。其次,强化用户在数据处理过程中的主体地位,健全“知情—同意—退出—删除”四位一体的用户权利机制,确保用户可随时获取自身数据使用情况、行使拒绝和撤回权利,并在遭遇数据泄露或滥用时获得及时救济。此外,针对AI涉及的跨境数据传输问题,应完善数据出境评估机制与国际协作规则,保障国家数据主权和个人信息安全 [注16] 。

(四) 建设伦理审查与公众参与制度

AI发展过程中可能引发的伦理问题具有不可逆与不可控风险,亟需通过制度化手段建立起伦理治理与公众参与的双重机制。建议由国家层面设立人工智能伦理委员会,负责审查高风险AI项目的伦理合法性,评估其对隐私、人格尊严、社会公平等基本价值的影响。该委员会应制定强制性伦理审查标准,并定期发布人工智能伦理风险白皮书,指导企业和研究机构合规开发。同时,建立公众申诉渠道与社会监督平台,赋予公民对AI系统使用情况的监督权与问责权,特别是在AI被用于政府管理、公共服务等敏感领域时,更应保障程序公开公众参与,防止技术权力被滥用。此外,应积极推动伦理规范向具有法律效力的行为规范转化,构建伦理—法律双轨并行的治理体系 [注17] 。

(五) 明确人工智能工具在司法实践中的定位

随着司法信息化程度的提高,AI在辅助审判、文书生成、法律检索等方面的应用日益广泛,但同时也带来了“去人化司法”“算法裁判”等潜在风险。为此,必须明确AI在司法体系中的定位是“工具”而非“主体”,即其仅能提供辅助功能,而不能替代法官作出最终裁决。应推动建设“人机协同”的智能审判体系,制定人工智能参与司法程序的技术规范和行为边界。同时,建立AI辅助系统在司法过程中使用的证据规则和责任机制,明确当AI辅助判断结果出现错误时,应由人类审判人员或系统提供方承担何种责任。此外,应加强司法人员的数字素养培训,防止过度依赖AI系统,确保技术服务于法治,而非背离司法公正与独立原则 [注18] 。

07

结 语

人工智能作为通用技术,正在深刻改变社会结构与治理逻辑。面对这一趋势,构建一个既能促进技术发展又能有效防控风险的法治体系,是实现“科技强国”与“法治中国”战略的必然要求。法治建设应坚持问题导向、系统思维与协同治理,推动人工智能与法律规则的深度融合,实现智能社会下的可持续、公平与有序发展。

注释及参考文献

上下滑动查看全部

注释:

[1] Russell, Stuart, and Peter Norvig. Artificial Intelligence: A Modern Approach. Pearson, 2021.

[2] 陈伟:《人工智能的法律人格问题研究》,《法学家》2020年第2期,第23–34页。

[3] Gurney, Jeffery S. “Crashing into the Unknown: An Examination of Crash-Optimization Algorithms Through the Two Lanes of Ethics and Law.” Albany Law Review, vol. 79, no. 1, 2016, pp. 183–227.

[4] Eubanks, Virginia. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press, 2018.

[5] 全国人大常委会:《中华人民共和国个人信息保护法》,2021年8月通过,2021年11月施行。

[6] Floridi, Luciano, et al. “AI4People—An Ethical Framework for a Good AI Society.” Minds and Machines, vol. 28, no. 4, 2018, pp. 689–707.

[7] 张新宝:《人工智能法立法研究》,《法学研究》2022年第2期,第15–26页。

[8] Selbst, Andrew D., and Solon Barocas. “The Intuitive Appeal of Explainable Machines.” Fordham Law Review, vol. 87, no. 3, 2018, pp. 1085–1139.

[9] 全国人大常委会:《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》,2021年施行。

[10] 王利明:《人工智能辅助司法的边界与规范》,中国社会科学院法学研究所论文集,2023年第4期,第66–74页。

[11] 刘德良:《人工智能法律问题研究》,中国法制出版社,2020年,第4页。

[12] 国务院:《新一代人工智能发展规划》,2017年7月。

[13] Floridi, Luciano, et al. “AI4People—An Ethical Framework for a Good AI Society.” Minds and Machines, vol. 28, no. 4, 2018, pp. 689–707.

[14] 张新宝. 《人工智能法立法研究》. 法学研究, 2022(2): 15-26.

[15] Selbst, Andrew D., and Solon Barocas. “The Intuitive Appeal of Explainable Machines.”

[16] 全国人大常委会. 《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》. 2021年施行.

[17] Floridi, Luciano et al. “AI4People—An Ethical Framework for a Good AI Society.” Minds and Machines, vol. 28, no. 4, 2018, pp. 689–707.

[18] 王利明. 《人工智能辅助司法的边界与规范》. 中国社会科学院法学研究所论文集, 2023(4): 66–74.

参考文献:

[1] 刘德良:《人工智能法律问题研究》,中国法制出版社,2020年,第4页。

[2] 国务院:《新一代人工智能发展规划》,2017年7月。

[3] 王利明:《人工智能背景下的民事法律责任体系重构》,《中国法学》2021年第1期,第16页。

[4] 李贵发:《自动驾驶法律责任研究》,《清华法学》2020年第2期。

[5] Pasquale, Frank. The Black Box Society. Harvard University Press, 2015.

[6] 贺劲松:《大数据时代的隐私保护问题研究》,《现代法学》2019年第3期。

[7] 陈瑞华:《人工智能时代的伦理困境与法律回应》,《法学研究》2020年第2期。

[8] 吴沈括:《人工智能立法的系统化构建路径》,《中国法学》2021年第4期。

[9] 林维:《人工智能治理的法律制度重构》,《法学论坛》2022年第5期。

[10] 刘桂明:《智慧法院建设与司法公正》,《中国审判》2022年第1期。

[11] European Commission, Proposal for a Regulation on a European Approach for Artificial Intelligence, 2021.

[12] White House OSTP: Blueprint for an AI Bill of Rights, 2022.

[13] 郭少峰:《人工智能与公共治理》,人民出版社,2021年。

[14] 周汉华:《数字时代的法律变革》,社会科学文献出版社,2021年。

[15] 陈永伟:《算法透明性的法律路径》,《政法论坛》2023年第1期。

[16] 欧阳柏强:《数据权利的类型与保护路径》,《中外法学》2022年第4期。

作者简介

陈抒舒

国浩南京律师

业务领域:海事海商,私募基金,证券与资本市场

邮箱:chenshushu@grandall.com.cn

【 特别声明:本篇文章所阐述和说明的观点仅代表作者本人意见,仅供参考和交流,不代表本所或其律师出具的任何形式之法律意见或建议。】

法律工作 All-in-One
律页法律工具1
律页法律工具2
律页法律工具3
律页平台
律页法律功能1
律页法律功能2
律页法律功能3
开始免费使用