来源:法学学术前沿
发布日期:2025年11月26日
L L L 法学学术前沿
人工智能立法的基本问题:算法规训及其场景中的人机关系
作者:梅夏英,法学博士,对外经济贸易大学法学院教授。
来源:《法学家》2025年第6期。(转自《法学家》公众号)
为塑造法学学术前沿微信公众平台的风格,微信推送的外标题系编辑根据文章理解所加,不代表作者立场。
摘要:
人工智能立法问题目前存在理论上的争议。基于立法理念切换尚未完成、法律对技术回应的有限性和延迟性,以及新技术领域的统一立法对于新颖性和系统性的要求等原因, 目前制定统一的“人工智能法”的时机尚未完全成熟 。人工智能立法应建立在它所创造的新型法律调整对象和方法上,由此可以提炼出 “深度学习算法”和“人机关系”作为人工智能法的两个理论支点 ,且两者是紧密联系同步进化的。深度学习算法的规制在人工智能领域较之前具有更重要的意义,当前关于算法的透明性、可问责性以及可解释性等理念均无法形成理论上的自洽,最终仍有待算法“黑箱”的有效破解。人机关系因技术发展的不确定性尚难以在法律上形成完整判断,但如果剔除掉AI“自我意识”的幻象,人机关系未来应由人类主导,且应遵循“非人化”原则、人类优先原则和安全原则,在此基础上就可以建立人机关系的具体法律机制,如人机对齐、人机信任和人机伦理的相关准则。人工智能立法对新的思想资源和思维范式提出了迫切要求,其中“计算机作为社会行为者”以及“行动者网络”等理论对我们的借鉴意义值得关注。
关键词:
人工智能;算法黑箱;人机关系;智能体
因篇幅较长,已略去原文注释。
目 录
一、人工智能立法的理论支点:“深度学习算法”和“人机关系”
二、深度学习算法的规制:算法黑箱的法律对治
三、人机关系:人机交互与共生的法律机制
结 语
人工智能立法在我国已被提上立法日程。虽然就人工智能立法的步骤和内容仍然存在争议,但通过制定符合人工智能发展规律的法律(体系)来有效促进和保障人工智能的健康发展,社会各界对此已达成共识。人工智能属于信息技术革命的高级形态,远远不同于农业革命和工业革命着重于自然力的利用和释放,人工智能的科学基础、运行逻辑和社会影响通常遵循自身特定的规律,并在人类的适应和试错中逐渐显现出来。由于以计算机和网络技术为基础的信息革命历时较短,并无成熟的理论体系作为依凭,且目前尚处于快速发展中,故在应对信息技术给社会带来的变动和挑战时,法律界大体上采用工业时代成熟的理论和制度予以解释和回应。这一过程贯穿计算机和互联网发展的全部历史,也在人工智能领域得到显著的体现。具体到法律领域,法律界目前努力在传统的公私法体系中妥善解决网络和人工智能的立法规制问题。这虽然也取得了一些局部的成效,但是在人工智能立法的思想基础和体系建构方面尚缺乏整体性的理论判断。当前的立法讨论并没有充分关注到,人工智能具有鲜明的系统性、公共性、开放性和进化性等特性,并与传统法律体系相互融合,形成了“异质同构”的关系。因此,对人工智能进行“异质”性的提炼,并将之作为人工智能立法的理论和结构展开的立足点,具有理论上的适切性和必要性。基于此,本文拟在此方面做出理论尝试。鉴于之前理论界对于计算机、网络等规制领域的“异质”性探讨尚不充分,故在此很难对数字法进行全景式的描绘。本文仅在局部范围内探讨人工智能立法应着力处理的两个新型异质性因素,即“算法规训”和“人机关系”,以供商榷。
一、人工智能立法的理论支点:“深度学习算法”和“人机关系”
人工智能立法在2023年被正式列入立法日程,如《国务院2023年度立法工作计划》和《国务院2024年度立法工作计划》,均写明国务院将提请全国人大常委会审议名为“人工智能法”的法律草案,由此掀开了法学界研究人工智能法的热潮。但与此同时,近期出台的《全国人大常委会2025年度立法工作计划》和《国务院2025年度立法工作计划》,都没有出现“人工智能法”的表述,仅仅采用了“推动人工智能健康发展立法工作”等类似的措辞,似乎又表明制定特定的“人工智能法”存在一定的不确定性。当前人工智能已经出现在社会生活中,并呈蓬勃发展之势,给传统社会带来了前所未有的冲击和挑战,社会对立法机构提出客观的立法需求理应具有正当性和合理性。针对上述法律文件的变化,法学界亦就立法机关如何制定,或是否应当制定“人工智能法”进行了进一步的理论讨论,这一领域的探讨也为我们正确认识人工智能的核心规制内容和规制逻辑提供了契机。
(一)当前人工智能立法的理论进展及其必要性问题
自2023年以来,法律界对于人工智能立法讨论集中在两个领域:一是是否应当制定一部统一的“人工智能法”;二是如何制定“人工智能法”。就第一个问题,自始即存在正反两方面的主张。肯定的主张并没有在理论上过多阐明制定“人工智能法”的必要性,只是鉴于当时存在明确的立法规划,以及欧盟于2024年通过的《人工智能法》(EU Artificial Intelligence Act)为全球人工智能治理提供了重要参考。该主张主要是宽泛地从风险防范、权利保障、产业促进以及国际治理等方面,列举了立法的适时性和正当性。否定的主张则较为明确,反对当下制定一部统一的“人工智能法”,以学者寿步、丁晓东等为代表。该主张主要从人工智能的全球技术竞争面临的不确定性,以及当前人工智能利用的场景化特色等角度,揭示了制定统一人工智能法的技术基础、治理逻辑和理论准备尚不成熟,有待人工智能技术的进一步发展和呈现。此主张还认为,欧盟的《人工智能法》仅以“风险防范”为其主要脉络,并不具有普遍借鉴的意义。否定的主张目前似乎取得了法律界更多的认同。就第二个问题,学界并没有形成明显的观念对立。学者们更多地考虑到人工智能兼具技术性、安全性、动态性、场景多元性和治理协同性等特性,分别提出了人工智能立法的“动态治理”“弹性治理”“软法治理”“敏捷治理”以及“韧性治理”等先进理念,并强调通过安全与发展并重、统一立法与单行立法兼顾、央地监管与政企监管相协同,以及国内立法与国际治理相呼应等立法统筹方法,来制定一部“大杂烩”式的综合性法律。显然,上述立法所应承担的多重任务为制定统一的人工智能法带来了较大的困难,其中不同的理念和功能如何被科学、有效地整合在一部法律中,需要充足的理论设想和论证,以满足传统立法应具有的体系性、科学性和专业性的要求。
总体而言,当前关于人工智能立法的讨论,主要体现在对于该技术所致社会问题和法律回应的关注和铺陈上,并力图将相关问题打包成一部专门的法律来集中调整。这项工作具有一定的意义,但在法理上并没有实质意义上的建树。它既不能有效地体现传统立法的体系性和科学性精神,也不能体现未来数字法律的新思维或新范式。在此再次谈及立法必要性问题。客观而言,从时代背景、技术规律和立法变迁等角度考察,制定统一的“人工智能法”的时机尚未成熟,其原因如下:
第一,新旧理念交替尚未完成。计算机、互联网以及人工智能技术的迭代出现,无疑是强大的技术“异质性”技术因素对传统社会的数次冲击和改造,并使人类社会进入高度信息化时代。信息技术对人类的影响迥异于传统农业和工业时期的技术变革,它为人类注入了自然力维度之外的信息维度,并通过信息交互的力量使人类社会超越静态的、相互分割的“机械组合”状态,进入到动态的、高度系统化的“有机联结”状态。依托庞大的信息基础设施,当代数字媒介自身逐步实现了“去物质化”,它从传统实物载体向虚拟空间迁移,摆脱了媒介的物理束缚,通过“液态传播”和智能技术将整个社会通过信息完整地联系在一起,成为一个“活泼”的有机进化体。从数据的“利他分享”、互联网的“结合增益”到人工智能的“人机交互”,人工智能无不体现出信息革命所蕴含的复杂系统观念、进化观念以及整体控制观念,是对传统工业时代以物质稀缺性为前提的社会形态的革新和演进。鉴于传统法律体系尚无复杂信息系统治理之基因,故在对人工智能予以规制时,因数字系统公共性的存在,私法发挥作用的领域相对有限,而由“公法”担纲主要角色。而公法所依赖的行政权力在处理高度社会化的数字系统上,并不能独自承担“技术手段”治理和“社会协同”治理的任务。因此,对于复杂数字系统的有机治理以及法律体系的未来变迁,目前尚无成熟的理念支撑,新旧理念交替尚未完成,这也是世界各国在人工智能立法问题上无法达成任何共识的原因。
第二,技术革新的激进性与立法回应的有限性。人工智能法从字面理解,是以“人工智能”技术为规制对象的法律。但从立法调整社会关系的角度而言,它调整的并不是人工智能技术本身,而只能是因人工智能的使用而产生的新型社会关系,同时解决由其带来的新型法律问题。自近代以来,法律对于跨时代的重大技术革命通常首选在传统法律体系中进行有效回应。比如就火车、汽车、电力和核能而言,火车和汽车的出现并没有使各国制定出统一的“火车法”和“汽车法”,而是促使了有关铁路、公路和道路交通安全管理等法律法规的出现;随着电力和核能技术的问世,绝大多数国家也没有即时制定“电力法”或“核能法”,直到当代有些国家(包括中国、美国、英国、日本、印度等)才制定了《电力法》《原子能法》或与电力、原子能相关领域的法律法规。但这些法律都是与上述技术的公共利用、能源规划和安全保障等方面的内容相关,是对传统法律体系的补充,并没有超出传统法律体系的独立意义,且立法层级普遍偏低。技术革命并不会立即导致以该技术命名的法律同步出现是一个普遍规律。这种法律体系的有限回应说明了,先进技术并没有颠覆原有的社会基础结构或社会关系,对于其产生的新的法律关系或法律问题,传统法律体系可以通过局部扩展而适时容纳或消化。当然,对于人工智能而言,它产生的颠覆性影响应远远大于近代工业技术,故它在立法上面临的并非是否具有“颠覆性”或“划时代”的问题,而是在其颠覆性充分展开之前,传统法律体系并不能有效地容纳或解决它所造成的社会变革。引言之,法律的有限回应在人工智能领域主要体现为“延迟”而非“容纳”,在此期间立法机构仍可以通过制定各种行政法规、规章、办法等,来解决人工智能领域出现的各类局部问题,通过“小步快跑”的立法方式来适时辅助人工智能的健康发展。
第三,立法的体系性问题。制定统一的人工智能法,意味着制定一部高阶的、具有内在体系的基础法律。基于此,有学者甚至提出了人工智能法“法典化”的思路。必须明确的是,通过出台法律法规对人工智能带来的法律问题及时回应并加以规制,是技术变革时代的通常做法。但目前立法界关注的人工智能法更倾向于一种类似于法典化的体系性立法,并以此引领未来人工智能立法的体系性展开。从目前情况看,人工智能法力图解决的问题主要集中在四个方面,即风险防范、产业促进、权利保护和国际合作治理等。但这四个方面互不从属,分属不同的法域,无法形成具有内在联系的逻辑体系。其中,权利保护主要涉及个人信息、隐私以及知识产权的保护问题,自有其固有的私法规则调整,国际合作亦可归之于国际法范畴,风险防范和产业促进则主要体现为行政法上的监管和激励。这些法律问题大多可在特定的领域通过单行立法来回应,并没有明显的体系“增益”的意义。其主要原因在于,回应性立法主要是在传统法律体系中解决新技术产生的社会问题,而体系性立法则应立足于新技术衍生出来的新的社会关系、法律理念和治理逻辑,属于法律的创造和发展。两者的分界线在于,立法是否能提炼出独立的调整领域和结构体系。但这项工作通常并不容易完成,如自20世纪中后期计算机、互联网先后普及以来,给传统社会提出了大量的法律问题,但世界各国并未因此出台任何名为“计算机法”或“网络法”的法律,说明上述两个领域并不完全具备进行体系化立法的条件。而人工智能则属于计算机和互联网的高级应用,将面临同样的情况,除非我们能找到支撑独立的、体系化的人工智能法的支点和结构,否则采用回应性的分散立法应成为近一段时间人工智能立法的主旋律。
(二)未来人工智能法的理论支点
以上关于人工智能法立法必要性的论述,大致说明了技术革命与法律体系的变迁并不完全同步。从世界各国法律体系的形成和演变可以发现,科学技术作为生产力的第一推动力,实际上起到了法律变革的终极作用。如技术革命分别导致农业社会和工业社会的法律变革,但法律变革却是在技术革命所传导的社会变革的基础上产生的。法律从来不直接调整技术自身的问题(除非确有必要),而是人与人、人与社会之间的关系,当技术革命导致社会关系或社会问题呈现新的格局或新的治理理念时,才会导致新的法律诞生甚至法律体系的历史性变革。值得注意的是,跨时代的技术革命(如蒸汽机、电力)影响社会变革的方式,通常并不体现为通过回应该技术的立法渐进积累,自然而然地产生法律变革,而是体现为由新的社会理念和治理范式主导的法律体系的变革。当前以计算机、互联网和人工智能技术为代表的信息技术革命,丝毫不亚于人类历史上任何重大的技术革命。它使人类由工业时代跨步进入到信息时代,社会变化日新月异,尤其是人工智能技术给当下社会造成了近乎颠覆性的影响。如前所述,在计算机、互联网出现的几十年时间里,产生了众多的法律问题,但在各国并没有促成自成体系的法律出现。这并不意味着社会不需要新的法律来适应新的社会变化,而是因为新技术产生的社会演变尚未到达“质变”的阶段,我们很难从传统法律体系里扩展出新的法律范畴、命题和结构,以消化信息社会的社会治理理念和运行逻辑。在可预见的未来,传统法律体系包括立法、执法和司法等领域都将受到数字化的冲击和改造,社会将服从一个信息化的、系统化的法律体系。在新的法律系统中,每一部法律都将贡献自身特定的功能和目的。
对人工智能法而言,未来它并不解决计算机和互联网领域的问题,只调整因人工智能的应用而产生的新的规制对象和社会关系。因为未来数字立法将自成体系,有关计算机和网络的立法原理和规则均适用于人工智能领域。故我们必须寻找到支撑人工智能法结构及其展开的理论支点,这个理论支点应是人工智能给社会带来的独特对象或新型关系。依此逻辑,目前能确定的人工智能法理论支点体现为两个领域,即“深度学习算法”和“人机关系”。这两个领域构成了专属于人工智能法的特有调整对象。
就“深度学习算法”而言,它之所以成为人工智能法的规制对象,是因为深度学习在近年来开启了人工智能的大门,使机器学习真正进入了“智能”化的世界。它以深度神经网络来模拟人脑的学习过程,相比传统的机器统计学习算法,深度学习算法通过CNNs, RNNs, Transformers等网络结构,建立了ChatGPT, MidJourney, Stable Diffusion和Deepseek等AIGC大模型,在图像识别、语音识别、自然语言处理、自动驾驶等领域得到了广泛的应用。这些神经网络大模型目前尚属于具有特定能力或能完成特定任务的弱人工智能(ANI),尚未到达通用人工智能(AGI)的水平。有部分业界人士认为,如果现有深度学习算法进一步发展,能出现涌现(emergence)、代理(agency)、功能可见性(affordence)和具象(embodiment)的功能,就有可能进化出通用人工智能。当前以GPT-4、PaLM-E甚至最近马斯克发布的Grok-4为代表的多模态大模型,具有更多的代理能力和与现象界的实时互动能力,让人们似乎又看到了通用人工智能的影子。值得注意的是,深度学习算法只是导致当前人工智能取得阶段性实破的神经网络大模型算法,并不一定代表未来通用人工智能的技术路线。如美国科学家Yann LeCun(燕乐存)就认为未来AGI可能更依赖于非生成式算法。基于上述技术背景,人工智能的法律规制一定不能忽视产生其自身的“智能算法”,这可说是抓住了牵制住人工智能的“牛鼻子”。事实上正是智能算法制造了人工智能带来的绝大多数问题,尽管存在“算法黑箱”等种种困难,我们还是只有通过算法的监管才能解决算法透明、公平、可归责和可解释的问题。另外,从人工智能的技术基础来看,传统的机器学习、数据和算力等都是人工智能产生的必要技术条件。但它们与人工智能产生之前的算法、数据和算力同属计算机和网络的基础设施,没有形成质的飞跃,在数字法的基础领域进行宽口径调整即可。而将深度学习算法在人工智能法领域进行规制,则可以有效地对治人工智能带来的问题。
“人机关系”则可谓当代人工智能为人类社会创造的一个全新的领域,即人和机器的关系。由于智能体(Agent)的存在,人和机器的关系突破了工业社会中人和机器的支配型关系,形成了新型的互补、协作甚至对抗的关系。这种关系现时还只能在机器“非主体性”的语境下存续,但不排除未来AI的主体性取得实质意义上的加强,其时“人机关系”将呈现更为复杂甚至颠覆性的局面。随着AI智能程度的进一步发展,尤其是当前具身机器人和“脑机接口”技术的逐步突破,“人机关系”将被卷入一个巨大的社会技术系统而“共生”或“共同演化”。 AI兼具技术体和智能体的双重特点,是“人机关系”成为独立领域甚至与“人际关系”并列的主要原因,也是人类正式被纳入巨大的技术复杂系统进行演化的技术前提。故作为AI时代应运而生的新形态和新动能,“人机关系”理当成为人工智能法着力调整的对象。当前人机关系面临的各种基本问题体现为人机伦理、人机信任以及人机对齐等,这些问题的应对和解决实际上又与人机交互的界面即“智能算法”密切相关。故“深度学习算法”和“人机关系”是AI时代产生的“孪生”问题,决定了人工智能的技术基础和社会影响。在数字立法系统中,两者当属人工智能法的两个理论支点。
二、深度学习算法的规制:算法黑箱的法律对治
(一)AI算法规制法律意义之重申
AI智能算法的应用日益广泛和深入,并造成了许多普遍性的、结构性的社会问题,如信息茧房、算法歧视、面部识别、观念极化、AI武器以及算法幻觉等,这些都将对社会安全和个人权利造成严重危害。各国均意识到对算法予以规制的必要性,并将算法的公开透明、可依赖、可归责以及可解释等作为算法治理的基本目标。我国目前的《生成式人工智能服务管理暂行办法》《算法综合治理指导意见》《算法推荐管理规定》等,对于算法的规制作出了相应的规定,鼓励、督促算法提供者履行必要的算法“透明”和“解释”义务,并承担算法安全责任。从技术面上看,在深度学习算法出现之前,传统的“决策树”或“线性回归”等简单算法更容易被追溯和解释,深度学习神经网络则使算法成为功能强大的内部“黑箱”,大大增加了达成上述目标的难度。目前关于如何对算法施以法律上的规制,社会各界还未形成统一的共识,大致分为“柔性治理”和“刚性治理”两种态度。柔性治理的主要出发点在于:第一,算法本质上只是数字化工具或技术,目前处于技术快速发展时期,社会对其带来的负面后果应予以适当容忍和正面引导;第二,目前并不存在类似AGI的通用算法,任何智能算法都适用于特定的应用场景,并产生不同的法律问题,故法律不宜通过普遍的强制性规则来治理算法;第三,人工智能的影响不是来自单个算法,而是源于它们与社会互动的方式,如人工智能的偏见与社会偏见和不平等密切相关,在与用户交互并进行深度学习过程中,其服务内容便带有偶然性和不确定性,在技术上很难人为地追溯和解释。刚性治理目前主要体现在以欧盟为主的立法理念上,主要是考虑到:一是人工智能应严格贯彻技术向善的原则,不能以牺牲个体权利和公共安全发展人工智能,以免陷入“科林格里奇困境”;二是AI算法与数据、算力结合形成的系统某种程度上已成为社会“基础设施”,会加剧市场力量的集中,使少数科技巨头掌握了大量数据和计算能力,对社会产生全方位影响;三是AI算法如不经适当限制,则有可能进化出脱离人类控制的超级智能,使人类缺少足够的应对时间。
以上是目前关于AI算法规制观念的大致情况,并没有面面倶到。总体而言,当前技术界和法学界对于AI算法的看法处于零散的状态,远远没有达成共识,其中的各项考虑也没有形成有效的聚焦。上述柔性和刚性治理代表了现时学界的两种态度,都有其合理性和局限性。如柔性治理正确认识到在AI的成长与试错过程中社会回应和动态调整的重要性,以及“正向激励”相较“强制归责”更有利于AI的健康发展,但同时也部分地放弃了对于AI算法的客观探究和技术对治;刚性治理则从更基本的法律价值如个人基本权利、未来社会系统风险出发,强调AI算法的系统风险以及高度的破坏性,但刚性治理对近期AI的快速发展亦有可能会形成一定的阻碍作用。AI算法涉及方方面面,它已成为社会复杂大系统的“构成”因素和“构建”因素,法律上将其作为独立的、特定的对象并采用传统法律原理和规则进行局部规制,并不能切中系统的要害。实际上,上述不同的治理理念只适用于AI算法发展的不同面向,并不能构成对立的观点,在此系统化的看法更为重要。
具体而言,AI与传统技术在法律规制上存在如下不同:第一,传统“技术”本身一般不被纳入法律调整范围,而是由技术规则、标准以及流程等技术规范予以调整,对技术导致的损害则适用传统法律调整。而AI算法在遵守普遍技术规则的前提下仍需法律直接干预,其原因在于算法并非如科学定律般是完全中立的。它并不属于纯粹的技术,而由开发者依据服务目的自行设定,并直接对用户产生实际影响。第二,AI算法与传统机器的不同在于,它具备了与人交互的“智能性”而成为超出传统技术或机器范畴的“智能体”。这种智能体不仅灵活多变,而且还有可能进化成高度自主的智能体,并创造出来新型的“人机”关系,法律必须对此予以引导和预防。第三,AI不同于传统相对独立的技术变革,它是将技术规则、硬件系统、数据、算法、算力等基础要素联结成一个巨大的社会数字系统,成为新的社会基础设施,同时通过人机交互界面实现社会信息共享和反馈。这个巨大的系统具体鲜明的公益性、公共性、联动性和外部性,很难通过私法上的“定分止争”理念来规制和调整,系统性的公法理念和方法应占据统治地位。
回到对算法规制的基本态度。通过上文的比较和辨别,可以发现算法作为网络系统发展的主要动能充当了AI进化的引擎。它是与传统有关机械和能量的技术体系完全不同的事物,服从信息分享和信息系统扩张的规律,并在塑造信息社会有机系统中展示了自身纵横捭阖的能力。当前基于AI发展的客观需要而采取动态的“柔性治理”策略,并不意味着我们可以在技术面上忽视对算法的规制,甚至放任算法“黑箱”的存在和发展。实际上,智能算法已经不仅仅是一项特定的技术,它已成为类似当代社会的“公器”,对未来社会理念、社会形态和社会变革具有重要影响。亦即人工智能兼具鲜明的政治属性、社会属性和技术属性,个人、社会和AI将在未来相互耦合在一起。法国著名思想家贝尔纳·斯蒂格勒(Bernard Stiegler)就人工智能和媒介发展对当代社会造成的影响有独到的分析,并提出了“象征秩序的贫困”的观念。他认为“技术”一直在实质性地参与人类社会的构建和发展,并称之为与“先天禀赋”相对的“后种系发生”(épiphylogenèse)。其中由外部技术媒介所保存的记忆与经历被他看作“第三持存”(rétention tertiaire)(与人类瞬时反应和记忆相区别)。“第三持存”改变了人类的时间观念和意识结构,同时具有“毒性”和“药性”的两面性。 “毒性”表现在人类因过于依赖媒介而受历史符号控制,缺乏对生活的直接感知和经验积累,并造成精神生产能力的减弱、注意力的丧失以及欲望的僵化等不良后果;“药性”则表现为人类只能凭借外在于自身的技术和工具来生存,任何一项技术都赋予人类独特的发展可能性,在打破原有均衡和带来“毒性”的同时,也可能通过引发新的个体化飞跃来促进进化。如“文字”既导致了“遗忘”,也促进了人类的知识延续等。斯蒂格勒的思想富于洞见性,他使我们认识到,人们面对数字技术时代的任务是将其“毒性”转化成“药性”。其中算法起了核心作用,AI算法的有效规制可以使我们在抑制“毒性”的同时最大程度地发挥算法的“药性”。当代算法决策通过计算将“未来”看作是“过去”的机械延续,打破了人类“将愿望投射于未来”的心理过程。只有强化算法技术的政治责任,通过公众的批判性参与,辅以算法的改造和替代,才有可能使数字系统克服当前算法的各种负面影响,真正实现科技向善。
(二)算法“黑箱破解”的法律途径
现今法律对算法的规制主要体现在算法的透明性、公平性、可解释性和可问责性。这些概念看似简单,但似乎更多代表的只是某些社会信念,而非可行的规范和制度,社会各界并未对这些概念的内涵和实施方式达成有效的共识。细究之,有关算法的这些理念均来源于一个不可绕过的基本事实,即算法“黑箱”的存在。基于代码的保密原则和专业技术壁垒,有算法就有“黑箱”。加之深度机器学习算法的空前复杂和庞大,社会公众除了根据输入和输出对算法进行片面的理解,对其内部的运作几乎一无所知。算法黑箱应从算法具有偶然性、本体发生性和施为性,并且通常被嵌入更广泛的社会技术场景中发挥作用等角度来理解。
“偶然性”指的是在算法开发以及任务执行中,具有随机性和不可预测性,尤其是算法的参数依据用户输入和上下文随时变动,导致输出结果无法确定。除此之外,在无人监督或程序存在漏洞的情况下,算法还可能出现意料之外的行为或错误。“本体发生性”指的是算法永远在形成和发展中,它不是由单个开发者编程,而是由众多开发者集体完成,由多重邻近的和相关联的客观条件和语境组合而成,这些异时异地的开发者使用的工具具有异构性和嵌入性。另外,在算法公开的情形下,用户甚至也参与了算法的构建。“施为性”指的是算法对用户主动施加了实际影响,并主导了用户的选择和决策。算法黑箱的存在本质上是由其技术面决定的,但同时又通过人为设计和场景互动对社会产生了实际影响,历史上从来没有一种技术同时存在如此鲜明的技术性和社会性的交织,这也导致了在任何对算法规制的理念上都存在争议。
首先,就算法透明而言,现时的必要性体现为,它能成为辅助算法问责与改进算法设计的工具。除此之外,有学者提出算法透明具有上述工具价值之外的“内生价值”,即积极性内生价值(增进算法社会的交往、理性与信任)和消极性内生价值(监督算法权力),且工具价值和内生价值可以通过设定不同的透明义务规范来得到法律保障。但算法透明的法律和技术障碍却是客观的:如算法透明可能与知识产权的保护以及数据安全、隐私保护相冲突,并对技术创新产生一定的阻碍作用;又如算法透明后还会被用户进行反向利用,扰乱算法的正常运行;再如亦有学者认为,算法任何环节的透明化还可能会导致责任分散等。上述关于算法透明的理论困境说明了算法透明并不存在一个非此即彼的命题,它本身仍处于技术性和社会性相冲突的领域,在法律上尚未达到进行“刚性”要求的程度,现时只能通过算法决策告知、“经由透明的设计”和“算法开源”等方式逐步探索算法透明度的合理边界。
其次,是算法可问责问题。算法伦理强调“透明性”和“可解释性”,很大程度上意味着它能为算法可追溯和可问责提供技术和事实基础。在特定应用领域,算法“可问责”是必然存在的,如自动驾驶、机器人侵权、智能代理、隐私泄露以及数据安全等领域,法律需要通过算法透明性、可解释性以及其他因素来确定服务提供者的“过错”并追究其责任。但算法的可问责性范围总体上是有限的,且不一定与算法透明或可解释性直接相关。其原因在于:一是大多数算法并不具有提供现实特定服务的“产品”性,亦不“代理”从事民事活动,且大多数并未直接造成用户的人身和财产损害,故传统私法规则在此并没有广泛的适用性。二是目前具身机器人之外的纯以深度学习算法存在的AI系统,会造成个人信息滥用、算法幻觉、歧视和观念极化等问题,这些更多体现的只是AI发展过程的局部问题。它给社会带来的负面影响更多地体现为“风险”,而非归属于需要法律填补的实际“损害”。这些风险并非全然需要法律干预,它需要现时法律的适当包容,只有在违反保护个人权益的特定法律,以及人工智能风险防范方面的法律(如欧盟“人工智能法”)的情形下,才可由监管机关通过行政执法(大多为高额罚款)来引导和规范。三是透明性和可解释性无法为算法的“可问责”提供法律上的因果关系,只能为相关AI服务提供“事实证明”或“相关关系”的解释。除此之外,单一的透明化和可解释性并不能涵盖和预防整体风险,而算法的进一步黑箱化则加剧了这一趋势。欧盟和美国立法更多地是从具体风险预防角度来设计规则,并没有在算法透明化、可解释性与可问责之间建立稳固的联系。
最后,是算法的可解释性问题。算法可解释性在法律上的价值尚未完全明晰,早期算法可解释性与问责问题有较强联系,对算法侵权归责有一定的帮助。但在人工智能出现以后,智能算法可解释性则更多地体现在对各种使用风险的预防和控制方式上,现今又逐渐成为监管机关的一种有效监管手段。在理论上,对于依照传统理论将算法“可解释”作为用户的一项权利的主张,越来越多的学者意识到它的局限性,主张算法解释权应被视为一种程序性而非实体性权利,且大多数算法解释权的功能也可以被现有其他法律方式有效替代。事实上,如果从算法解释权的技术可行性、实施效果、相关价值冲突和运行成本等角度分析,算法解释权已变得支离破碎,很难形成统一的、完整的制度,故从用户群体角度设定算法的可解释规则并非理想的方法。在此必须明确的是,算法的可解释问题与算法“黑箱”直接相关,它作为局部打开人工智能算法黑箱的规则,是整个数字化世界的基础规则,具有比用户算法解释权更基础和广泛的意义。它肩负着算法服务提供者与外部社会的技术沟通、社会系统风险的防范以及回应公共机关的监管等诸多功能,故基本上属于公共领域和公法规制范畴的法律事务,与个人私权关联不大。另外,虽然算法解释权受到诸多质疑,但不能否认算法可解释性的重要价值。目前理论上对于算法的人工监管可否减少或替代算法的可解释性,存在一定的争议。国外产业界存在两种观点:一是大多数专家认为当前的人工监管和算法可解释是互补而非竞争的关系,算法可解释性能够实现持久的价值,如信任、透明、公平和正当程序等,非人工监督可以替代。只有算法可解释性才能使人类能够正确理解机器做出决策的原因,有助于审查关键决策、开发人员调试系统以及防范企业领导者管理风险等,而人工监督则只能确保人工智能系统按预期正常运行。二是少数专家认为当代人工智能已经变得过于复杂,可解释性根本无法实现,其中具体的解释内容、解释对象以及解释目的比诉诸某种抽象的可解释性概念更重要。这两种观点都有其合理性,它们并非完全对立,而是适用于不同的场景,一言以蔽之,算法可解释性永远存在着“必要”与“可行”之间的矛盾。
上述关于算法规制中透明性、问责性以及可解释性的探讨,只是初步勾画了上述问题的理论地图和争议点,并没有给出最终的、明确的解决方案。本文探讨的是人工智能立法问题,深度学习算法与在它之前的机器算法都面临同样的法律规制需求,只是在实现相关要求上难度更大,未来发展更具不确定性。由于人工智能由深度学习算法发展而来,故人工智能立法应在AI算法的规制上更具有创新性和建设性。在此无法回避的是,AI算法具有强烈的技术性和不可预测性,无法以打开算法黑箱的方式完整呈现给社会公众,这是诸多问题的症结所在。尽管通过人工监管我们可以很大程度上消除AI风险,如实证审计、红队压力测试和即时的人工覆盖权限等方式已经提供了强大的安全保障,但如果不能在技术上明晰算法或者控制算法,将会形成人类直觉与算法黑箱的对抗,导致双方都无法相互学习,人工监督也会因此变得肤浅甚至沦为“橡皮图章”。真正的人机协作需要相互理解,即人类能够理解人工智能的推理,而人工智能系统的设计也能够以人性化的方式呈现。故让人类保有打开算法黑箱的能力应是最理想的方法。当然算法是否需要打开以及打开到何种程度,因不同算法的适用场景而异,这属于技术领域的判断,超出了传统法学工作者的能力,但目前在高风险领域(如自动驾驶、医疗保健、金融或刑事司法领域等)则存在刚性要求,这是无法回避的。
未来人工智能立法应贯彻如下理念:一是通过技术创新来打开算法黑箱。高科技的问题只能通过更高的科技方式来解决,人工监管很难完全解决科技本身的问题,未来AI算法透明化应依赖包括以“以AI打开AI”等方式在内的智能技术体系。二是强化算法开发者的伦理规范要求。AI开发者对算法的目标和实现方式具有最清晰、完整的认知,对于目标函数以及实现路径(包括参数、数据来源以及特征提取)等了然于胸,但这些技术要素(尤其是目标函数)在算法备案、评估或审计环节并不能完整获得。为了促进AI的发展,不可否认,现有的算法规制一定程度上忽视了对于开发者的刚性伦理要求。三是在完善现有人工监管体系前提下,应合理培养用户的AI素养和监督能力,以免出现无意义的算法透明或解释性的“闹剧”。限于篇幅,其他不一一赘述。
三、人机关系:人机交互与共生的法律机制
“人机关系”是目前业已存在的、前所未有的描述人与AI之间的新型关系,它之所以能被社会各界所共同关注,均来源于一个基本的“事实”或者更准确地说是“假设”,即AI已经并将继续成为具有高度自主性的“智能体”(Agent),且基于“类人”属性与人类形成了某种类似于“主体”间的关系。这种“主体”间关系无疑将成为人工智能法调整的主要内容之一。基于当前AIGC大模型的快速发展,社会各界对于AGI甚至ASI的到来充满预期,并开始探讨人机关系的未来前景甚至“人机命运共同体”和价值共同体问题。对于法学界来说,人机关系并非现时能够准确判断和把握的法律对象,它依赖于相对成熟的技术判断和理论创新,法学在此尚不能充当此领域第一梯队的角色,通常应位列AI科学、数学、脑科学、伦理学甚至心理学之后。但这并不影响法学界进行跨学科研究,及早研究应对之策。人机关系问题涉及的理论和学科背景宏大,资讯繁杂,在关键领域尚未形成共识。囿于作者本人视野的局限以及技术背景的缺乏,以下仅就未来人机关系的基本理论判断和法律应对原则做一粗浅的分析。
(一)技术争论下人机关系的法律判断
在法律上界定人机关系,依赖于如何定位未来AI的智能属性,即人的智能与机器智能是何种关系。这个问题目前存在两个理论走向,一是人与AI是否属于同一种智能;二是无论两者是否属于同类智能,AI是否可能具有自我意识甚至超过人类。就第一个问题而言,自图灵以来,到约翰·麦卡锡(John McCarthy)以及大多符号主义学者,都认为机器智能只是运用计算来达到智能的效果,虽然与人类在“智能”上具有相通之外,但与人类智能互不从属。从“图灵测试”只强调机器智能与人的表象相同就可以看出这一点。实际上,图灵时代关于AI的设想主要是从近代数学上的“计算至上”引申出来的实用主义的观念,本质上属于“计算智能”,并没有参照人的智能设计AI的历史背景。相反,以神经网络模型为核心的“连接主义”则具有比照人脑产生智能的原理“模拟”(simulating)的意味,更强调AI与人类智能的共通性。如辛顿近期公开强调大语言模型跟人脑运作具有相似性,只是AI更胜一筹,通过AI软硬件的区分就可以永久保存相关信息。
上述问题探讨的意义在于,如果可以确定AI为不同于人类的“另类”智能,则人机关系在法律上便可以成为一种可以经营和规范的关系,人机交互的“法律关系”便可顺利展开。如果AI在未来成为替代甚至超越人类的“同类”智能,那么AI与人类的对抗或竞争将不可避免,法律将尽力避免人类进入“死局”,并提前约束AI发展的进程。目前诸多学界人士就计算智能是否能够替代人类智能做出了有利于人类的判断,如燕乐存认为,人类本身就是为了生存而发展出来的特定智能,而非通用智能,AI亦是如此。学者赵汀阳认为,当前以贝叶斯逻辑为核心的人工智能方法,虽然在实践中取得了惊人的效果,但它本质上仍是一个无限逼近而非达成必然性的过程。我国院士陈小平则从当前生成式AI所具有的“实例性”和“弱共识性”出发,指出虽然大模型对人类语料中统计信息的处理和把握能力远远超过任何个人,但在数学、逻辑、概念、反思等方面与人类智能存在根本性区别。这些研究有助于法学界对人机关系作出合理的判断。
就第二个问题即人工智能是否会具有自我意识而言,情况更为复杂。现今产业界对AI“自我意识”的即将到来弥漫着一种强烈的“乐观”情绪,甚至不乏夸大的成分。其中以辛顿和马斯克等为代表,断言AI自我意识即将或已经到来。认定AI即将具有自我意识,主要是从现有AI算法具有一些超出预期的自主性功能且目前人类难以解释出发,得出目前AI已经出现了自我意识“涌现”功能的结论。如辛顿认为,以人存在“内在剧场”而设定的“主观经验”是不存在的,机器人通过感知系统的正确表达就可以做到这一点,与人类没有本质差别。谷歌科学家哈萨比斯(Hassabis)亦认为,类似“AlphaFold”的任何自然界的结构都可被模型化并具有“学习性”,AI有望在2030年有一半机会进化到AGI阶段,但是仍有待人类进行突破已知范畴的研究。对此社会公众中有诸多持不同意见者。如学者金观涛认为,人工智能是否具有意识在目前只能属于科学真实性判断,而在可重复的科学验证过程中“主体”并不参与,无主体参与的环境中不可能产生具有自我意识的主体。西方亦有学界人士认为目前AI远远没有到达具有自我意识的地步,仍未超出人类开发的正常技术的范围。如有学者认为AI并非一种革命性或颠覆性的力量,而是一种需要从历史视角理解的“普通技术”,AI将具有自我意识的设想大多是基于推测而非实证分析。亦有学者认为,大语言模型(LLMs)应被界定为文化与社会技术,而非自主智能体。其技术本质更接近于书写、印刷术、官僚体系等历史性信息处理系统,通过重组人类累积的文化数据进行社会协调。上述争论富有启发性,但本质上都属于哲学和技术领域的判断。但可以想象,在当前的智能驾驶对情境的直觉观察和与人际互动都无法胜任的情形下,谈论AI的自我意识未免为时过早。依目前的技术水平,当前AI系统并未超出高度自动化技术的范畴,仍然局限于特定任务,远未具备通用智能的特征,对于AGI的预期更多体现的是人对AI的想象和投射,而不是AI本身如何。
对于AI自我意识的讨论目前无法获得确定的结论。它的法律意义在于,如果法律将面对具有自我意识的AI,那么就将从智能种群的角度来慎重应对,人机关系将成为实质意义上的“种群际”间关系,最好的法律对策仍是防止它的发生。如果法律将面对的仍然是可控的AI自动化系统,那么人机关系在法律上仍然处于“人类中心主义”的理念控制之下,以引导和规范AI系统良性发展,有效地服务于人类。基于法律对于技术回应所表现的延迟性和保守性,通过超脱出上述人工智能的争论框架,将AI定位于“高度自动化”的文化与社会技术,是法律界目前较为妥当的选择。具体到人机关系,则在目前剔除掉“自我意识”之后,将AI定位为第一个问题中的“另类”智能,即是目前解决人机关系的事实基础。将AI定位社会技术,并不影响它的“智能性”和自主性,否则人机关系在法律上便不会存在。依此法律定位,未来人工智能法调整人机关系的原则主要体现在三个方面,即“非人化”原则、人类优先原则和安全原则。以下分述之。
“非人化”原则指的是人类永远不要把AI当作“人”来看待。当前的AI“拟人化”观点其实违反了此项原则,因为计算智能虽然具备了人类的某些自主性特点,但与人类有本质差别。过分的“拟人化”会强化AI的“非工具性”地位,动辄将对方当作“人类”伙伴,从而对法律引导人机关系产生误导。另外,“非人化”原则还意味着法律将适时阻止AI发展成与人类相通甚至超过人类的智能;“人类优先原则”指的是,人类的利益应优先于AI的利益得到法律上的维护。除了在智能上维护人类的优先性外,此原则还将在AI对人类构成重大不利影响时(如AI犯罪误导、失业和寡头控制时),优先保护人类的人身、财产和社会公共利益。最后的“安全原则”则强调AI的可控性,即在技术方面保持人类对AI所产生风险的掌控力,以及AI服务于公共利益的驾驭力。前者主要面临大模型算法(尤其是预训练阶段)所具有的不确定性和不可预测性的挑战,后者则面临因社会对个别大模型过于依赖,而对社会公共安全和民生安全造成结构性问题的挑战。对于上述挑战,除了在技术上对AI算法予以强化规制以外,对于社会经济或民生安全问题,则应在战略上追赶和兼容美国主导的现有AI体系,同时法律鼓励中国AI企业走低成本开源的道路,通过谨慎选择开放领域形成统一的技术体系,与全球化力量联合起来共建基于国际标准的统一智能计算软件栈,将创新利益尽量流向社会各个层面,以达到最小化技术风险和最大化公共福祉的目的。
(二)人机交互和共生的具体法律机制
人机关系问题既涉及单一人机关系,又涉及人类和AI的关系,但实际上宏观和微观层面的人机关系面对的是同一个问题,即都是对具有一定“自主性”和“智能性”的AI的法律回应,两者具有共通性。比如上文所述的宏观人机关系处理原则其实也构成具体人机关系的指导原则。AI技术目前逐渐使整个技术体系和社会体系形成一个大系统,故对人机关系的研究应坚持兼顾个体和整体的系统化思维范式。
目前各个学科开始关注的人机关系就兼具“单数”和“复数”的特征,人机关系的理论展开颇类于法学中的“人”和“动物”的关系,宜将普遍原则和具体规则结合起来研究。目前人机关系因AI的出现已正式进入公众视野,并在学术界大致形成了人机交互和共生的基本共识。人机交互指的是,人和AI的互补和协同是处理人机关系的基本方向和目的,人机共生则更倾向于在承认AI已然存在且不断进化的事实基础上,强调人类与AI之间的有机协作与共同存续。就目前AI的发展程度而言,人机关系仍应被置于人类主导的场景下予以讨论,而不存在另一个独立的“AI”主体,这是人类在伦理和法律上讨论AI问题的前提。在法律上,在人类主导下讨论的人机关系,并不构成传统意义上的“法律关系”,而是更接近人机领域诸问题的“解决方案”,这是颇令人感到新奇和费解的观念。由此而见,“人机关系”本身就是对传统法律思维范式的一次突破,也充分体现了信息领域思维范式的独特性和颠覆性。这决定了人机关系中的各个具体领域都是全新的法律问题,需要我们创造性地去挖掘和构建。就人机交互和共生的具体法律问题,目前讨论点集中在人机对齐、人机信任以及人机伦理领域,以下简述之。
“人机对齐”倡导的是AI应遵守人类的价值观和社会基本规范,以实现科技向善。人机对齐主要针对AI的两类风险:一是现有的AI失范行为,如AI幻觉、欺骗、歧视等;二是AI未来随着自主性加强而产生的“行为”难以预测的风险。人机对齐仅仅限于价值对齐,即充分说明了人类和AI分属不同的智能体,并遵循不同的“技术”路线,无法在智能产生机制上对齐。但人机对齐面临法律上和技术上的多项困难,如价值观念和标准难以明确和统一,因时因地而异;又如AI尚难以做到从计算中推导出“价值”或反向操作,无法处理事实与价值的冲突;再如AI通常只有在缺乏理解的情况下才表现出更强的能力,“技术的价值负荷”在此真的可能会成为一种无用的“负担”。即便如此,通过自上而下的“价值植入”仍是目前人机对齐的基础方法,虽然在自下而上的算法自我优化过程中,仍然会产生各种价值错乱。另外,真正影响人机对齐的还是AI在与人类交互中习得的人类价值取向,AI不仅不会辨别人类的价值偏见,反而会极化相关偏见。对此图灵奖得主理查德·萨顿(Richard S. Sutton)认为,我们正处在人工智能史上从“人类数据时代”迈向“经验时代”的关键拐点,AI受困于人类的数据,智能体需要在真实或高保真模拟环境中持续运行,用环境回馈而非人类偏好作为原生奖励信号。未来AI应在人、机和环境系统中通过经验学习发展多元化、去中心化的生态系统,人机对齐将通过未来差异化智能体的自生奖励和世界模型持续自我提升来实现。目前人机对齐仅是一种现实的法律主张,在实现路径上面临诸多不确定性,法律必须随顺技术的发展来设定可行的方法和路径,法律在目前所能做到的是在价值植入、AI学习以及算法透明等环节介入,设定合理的综合法律机制来尽可能实现人机对齐的要求。
“人机信任”则涉及人机交互和共生的前提,即人与AI相互形成基本的信任关系。显然,人机信任在此主要体现为占主导地位的人类对AI的信任。人机信任的必要性由人机合作共生的重大意义所决定,即AI凭借其信息处理能力应对决策的“复杂性”,而人类则以其整体性方法处理“不确定性”与“含混性”。人类与AI算法虽然均不完美,但两者有机协作创造的价值已无可取代。但是人机信任同样面临诸多困难:如AI幻觉、操纵以及不可预测等时常发生、用户对AI输出的结果难以解释,以及AI在自动驾驶、金融、医疗以及军事领域的容错率低等,都很大程度上影响了人对AI的信任。但这恰是人机信任发挥作用的基础。既然人对自动化的理解与自动化的实际能力之间总是存在差距,这种缺陷只能用信任来弥补,信任对方即意味着必须具有承受对方风险和行为伤害的意愿。通常说来,如果法律通过各种手段消除了风险,则人机信任亦无必要存在。但这种“信任”亦不意味着“冒险”,而是在尽可能消除风险,并在对风险予以科学评估的基础上做出的合理选择。以色列学者尤瓦尔针对人机信任的困难做出过评论,他认为在全球各国基于相互不信任而争夺AI发展主导权的时代,却倡导人们去信任一个前途无法预测的AI系统,是令人难以理解的。但如果我们不将AGI考虑在内,人机信任是可以逐步建立的,就像通常人际信任关系的形成一样,法律在创造信任的基础环境过程中也有了用武之地。未来法律将在下列领域为人机信任的达成有所建树:一是建立信任水平与自动化的实际能力相匹配的“自动化信任校准”标准体系,防止因过度信任造成的“误用”以及因低度信用造成的“弃用”带来的不良后果;二是法律通过管控AI质量,如安全性、鲁棒性、有效性、可解释性和意图说明等指标,来增强人对AI的信任;三是法律建立“以用户利益为中心”的权利保障体系,在AI开发、使用和追责等环节,通过标准制定、安全评估、风险测试以及课以责任等来增强人对AI的信任。当然,包括法律在内的各种社会机制建立起初步的人机信任之后,人机交互过程将会发展出个体性的持续性信任,这将是一个动态的过程,也是值得期待的理论和实践课题。
最后的“人机伦理”与人机对齐、人机信任有诸多关联,但更为基础和宏观,它涉及人机关系的基本格局和走向。人机伦理是人机关系建立的基本准则,它包含多层次的内容,大致可以分为宏观上的“人机主体差异”伦理以及微观上的“人机交互”伦理。前者意味着人与AI一定要维持差异性以彰显人的主导地位,后者即“人机交互伦理”则关注人机具体交互行为准则,它体现在人机互动的过程中。目前人机交互已经产生了诸多问题,除了AI幻觉、歧视及偏见外,尚有人机情感依赖、AI对人的操纵和误导、人对具身机器人的“恐怖谷效应”等问题。人类在创造AI时,也总是被AI反塑造。
总体来说,人机伦理是处理未来人机关系的基本范畴,它可以涵盖上述人机对齐和人机信任的基本理念和内容,并且在条件成熟时通过法律规范体现出来。当前AI领域面临一些新的行为失范问题,且已有各类案例出现。对此,除了运用传统的侵权法理论来解决以外,尚可以尝试从“人机伦理”角度进行推演。虽然我们最终不能对AI本身课以责任或免除行为人的责任,但这会从算法规训角度对AI的健康开发和运行起到正面促进作用。
如“网络开盒”对他人隐私和知识产权的侵害问题。“网络开盒”体现为利用AI强大的视觉线索提取与地理推理能力,整合个人电话号码、社交账户以及在平台发布的信息、图像、区域特征等数据,分析推断个人私密信息;或者利用AI软件剪辑作品、提供盗版影视链接和生成侵权作品侵犯他人知识产权。在人机关系的整体视角下,基于“非人化”和人类优先原则,法律应首先将责任主体锚定为AI的使用者和服务提供者,而非AI本身,从而确保既有法律体系的适用性,以遏制行为人利用AI实施“网络开盒”“人肉搜索”等侵害自然人隐私权的行为。基于可控性原则,法律应强化AI使用者的控制以及由此而生的责任。对于用户利用AI实施的知识产权侵权行为,AI服务提供者不应一概承担连带责任,而应从其对AI生成物的实际控制力,以及其是否按照国家有关规定和标准对生成内容进行标识、是否采取预防侵权措施等因素出发,作出综合判断。它给算法带来的启示是,对于涉及到人机对齐的上述问题,解决之道应着眼于事前的“价值植入”或技术保障,而不能仅仅依凭事后的“责任追究”。
又如“深度伪造”(Deepfake)及其衍生的“数字人”和“虚假信息”问题。“深度伪造”利用深度学习中的生成模型,对音频、视频、图像或文本内容进行高度逼真的伪造或合成,造成真假难辨的认知困境。将这一技术不当运用于人脸上,就衍生出AI换脸;将之运用于人的整体形象和声音上,就衍生出“数字人”(Digital Human)的滥用。实践中,利用AI换脸制作淫秽视频、图片并牟利的案件时有发生。国家传染病医学中心主任张文宏也被AI伪造,以数字人的形象推销“白芸豆威化蛋白棒”,令大量中老年用户信以为真。更有甚者,死者也能被AI“复活”,现身短视频为企业代言。随着大语言模型的兴起,网络虚假信息、网络谣言的制造成本不但大幅降低,其数量和传播力还不断攀升,呈现出门槛低、批量化、识别难等特点。现有法律体系对深度伪造、数字人滥用、虚假信息问题的回应,依然沿袭个人权利保护的视角,将《民法典》《个人信息保护法》《消费者权益保护法》等延伸适用于AI领域。但事实上,上述问题早已经超越了微观个体,进入到宏观社会的层面。在个人权利受损的背后,整体信任衰退效应将会导致社会信任危机。当眼见不再为实,所有人都不得不先抱持怀疑一切的态度,只有在付出辨明真伪的成本和努力之后,才能得到宝贵的信任。因此,唯有从改善人机信任、进而重塑社会信任的视野出发,才能摆脱治标不治本的运动型治理,追溯问题的本质。就此而言,只有在承认信息内容生成领域的人机共生的现实基础上,才能从深刻理解当代社会“后真相”的病理并探寻化解之道。
结 语
本文以人工智能立法为背景,从传统部门法的特定调整对象和方法的角度,提炼出了“深度学习算法”和“人机关系”作为专属人工智能法处理的对象。两种对象实际上是密切联系的,都与算法相关。如人机关系实际上主要体现为人与智能算法的关系。又如智能算法的规制过程也是人机交互的必要内容和过程,也只有在算法获得充分规制的基础上,人机关系才具有更为独立的意义。另外,对于智能算法的规制,除了解决当前智能算法产生的社会问题之外,其目的更在于使其产生社会学意义上的“规训”效果,以使得AI与社会良性地整合在一起,这也是本文标题采用“规训”表述的初衷。除了从法律角度分析人工智能立法路径之外,目前真正需要理论界关注的还是人工智能带来的一个观念上的巨大变化,即在社会关系的建构和发展上,人工智能已经成为一个不可忽视的推动和形成力量,某种程度上对传统法律上人的唯一“主体性”的理论前提及范式造成了冲击。对此,20世纪90年代以来西方传播学学者提出的“计算机为社会行动者”(Computers Are Social Actors, CASA)范式对我们具有重要的借鉴意义。该理论与同时期“媒体等同社会”理论证明了人们与计算机的交互本质上是社会性的,个体对于计算机自发的社会性反应也是客观存在的。这种理论在人工智能时代更具有说服力和生命力,AI不仅意味着认知任务的自动化与信息流的中介化达到了新的高度,还对人类社会既有的知识生产、社会结构与个体自主性构成了深刻的本体论与认识论层面的挑战。
CASA范式预示着一整套社会建构和数字法理论的转向,并将与传统理论产生巨大的裂痕。20世纪的西方社会学和技术哲学深入探讨了技术与社会的关系,从早期的“技术决定论”,逐步向“社会决定论”和“社会技术互动论”转变,其中不乏计算机技术的影响。虽然美国的科技史学者克兰兹伯格(Melvin Kranzberg)提出的“克兰兹伯格第一定律”——“技术不好也不坏,也不是中性的”,确定了技术与社会是一种互动关系。但真正体现CASA范式前瞻性的当属当代法国哲学家布鲁诺·拉图尔(Bruno Latour),他提出的“行动者网络”理论具有颠覆性,对AI时代的社会建构更具启发意义。拉图尔以“联结”出发,坚持人与非人因素、自然与社会因素、宏观与微观、认知与存在之间的对称性,将诸多社会要素平等对待,每个社会要素通过“行动者”“转译”和“网络”与社会产生互动、竞争和联结,并永远处于形成中。拉图尔所代表的“联结”“行动”以及超越技术和社会二分的理念对我们不无启发意义。人工智能所代表的CASA范式未来将以动态的“交互”和“嵌入”取代传统理论中静态的“定性”和“分割”,也将对法学尤其是数字法的建构逐步产生影响,值得我们期待。