来源:德和衡律师
发布日期:2026年04月02日

近年,随着生成式人工智能的爆发,人工智能(“AI”)已深度融入人们的工作与生活。对于企业而言,采购和部署AI系统已从“可选项”转变为提升生产力的“必选项”。
然而,AI技术天然带有“黑箱”属性,高度依赖海量数据,且存在潜在的失控风险。传统的软件采购合同,已难以为此类新型系统提供充分的法律保障。于是,一个颇具张力的局面出现了:一边是国内多地密集出台“养龙虾”专项扶持政策,释放产业红利;另一边,国家互联网应急中心与工信部针对OpenClaw等AI智能体接连发布安全警示,明确指出这类具备自主决策、系统资源调用能力的产品潜藏着多重安全隐患。
面对这一“机遇与风险并存”的现实,全球主要法域纷纷将合规防线前置至合同起草阶段。欧盟、美国、澳大利亚、日本及中国陆续出台了AI相关合同条款指引,为企业提供系统性的采购合规条款框架。
一、各国/地区文件“底牌”: 这些文件是什么?

二、各国/地区文件的核心内容: 各地共识与特色条款
纵观前述文件,各法域对AI采购合同条款的设计逻辑可归纳为三个递进层次:底线条款(全球通行)→选择条款(风险分级)→定制条款(法域特色)。
(一)底线条款:无论在哪个法域签订,均须包含或强烈建议包含
各国/地区均以AI应用中的数据用途限制、人工监督、透明度与可解释性、全生命周期风险管理、审计与可追溯、安全通知、知识产权保护、数据安全退出为底线:
1. 数据用途限制
为防范AI应用中的数据泄露、滥用等安全风险,有效保障企业商业秘密,各法域文件均明确核心“红线”:未经采购方明确同意或合同明确约定,禁止供应商将采购方的输入数据用于训练其通用/基础模型。
◈欧盟《高风险AI公共采购标准合同条款》及《非高风险AI公共采购标准合同条款》均明确约定, “除附件B另有规定外,供应商无权将公共组织数据集用于履行本协议以外的任何目的” ,并在附件B中要求区分公共组织数据集、供应商数据集和第三方数据集,明确供应商可以出于何种目的(履行本协议之外的目的)使用公共组织数据集。
◈美国《OMB备忘录》要求 “永久禁止在未经机构明确同意的情况下,使用非公开的机构输入数据和输出结果来进一步训练公开或商业可用的AI算法,但适用法律另有规定的除外。”
◈澳大利亚《DTA AI模型条款》明确, “卖方在任何时候均不得:a.对任何买方数据进行数据挖掘活动;b.将买方数据注入大型语言模型或任何AI模型中,除非本合同另有规定(包括作为提供AI系统的一部分)。”
◈日本《AI利用与开发合同检查清单》提示需要慎重判断是否允许供应商将数据用于自身学习。
◈中国《人工智能辅助起草和审核合同服务总则(征求意见稿)》《政务领域人工智能技术合作合规指南》也指出,确需将用户/服务对象(采购方)数据用于模型训练等目的的,应取得用户明确同意。同时,《人工智能辅助起草和审核合同服务总则(征求意见稿)》强调“应采取脱敏与隔离等保护措施,防止个人发生安全事件。”
【启示】 合同须明确采购方数据用途,严禁未经明示同意将数据用于模型训练。关注各法域细节差异,即:欧盟在附件B分类约定用途与退出;美国永久禁止未授权训练;澳大利亚严禁数据挖掘或“摄入”AI模型;日本慎重判断并建议明确约定;中国强调确需使用须获同意并脱敏隔离等。
2. 人工监督
为应对AI幻觉及其侵权风险等因素带来的影响, 各法域均要求人工参与AI系统应用的监督与控制,并保留中断系统权利 。
◈ 欧盟《高风险AI公共采购标准合同条款》及《非高风险AI公共采购标准合同条款》均明确约定确保有效的人工监督:采取适当的技术和组织措施确保实施监管的自然人能够 “在任何特定情况下,决定不使用人工智能系统,或以其他方式无视、覆盖或逆转人工智能系统的输出;干预AI系统的运行,或通过‘停止’按钮或类似程序中断系统,使系统能够在一个安全的状态下停止” 。
◈ 美国《OMB备忘录》要求为高影响AI系统配备合适的“故障安全(fail-safe)机制”: “提供额外的人类监督、干预和问责。在切实可行的情况下,机构必须确保人工智能功能具有适当的故障安全机制,以最大限度地降低重大伤害的风险。”
◈澳大利亚《DTA AI模型条款》强制要求人工监督,并专门设置“熔断机制(Circuit breaker)”条款,赋予采购方随时中断并停止AI系统的权利: “卖方必须确保AI系统包含一个熔断机制(circuit-breaker),能够立即中断并停止AI系统:a.根据买方向卖方发出的指示;并且b.通过买方可访问的人机界面工具。”“卖方必须:a.在设计和开发AI系统时确保:i.它可以被人类(包括使用适当的人机界面工具)有效地监督和监控;……b.确保负责监督AI系统的卖方人员……iv.能够在任何特定情况下决定不使用AI系统,或者忽视、推翻或撤销AI系统的输出” 。
◈日本《AI利用与开发合同检查清单》强调实操中的“人工确认”义务,并明确:无论供应商是否提供保证,企业用户在利用AI输出前,必须进行人工确认与评估。
◈中国《人工智能辅助起草和审核合同服务总则(征求意见稿)》相对于其他法域,明确强调AI的辅助性定位, “人工智能辅助起草和审核的合同内容不具备法律效力,需要用户对生成或审核内容最终确定” ;《政务领域人工智能技术合作合规指南》则要求设置监查人员,及时根据监查情况提高生成内容质量及安全。
【启示】 合同须明确约定人工监督机制及熔断机制,确保人工能够有效审核和控制AI系统的应用。关注各法域细节差异,即:欧盟设置“停止”按钮+否决机制;美国要求高影响AI须配备“故障安全机制”;澳大利亚专设“熔断机制”;日本强调人工确认;中国强调“辅助”定位+人工确认。
3. 透明度与可解释性
为保障采购方对AI系统的有效控制、保护受影响个人的合法权益、增进公众信任等,各法域均设定了AI系统应用的“透明度与可解释性”要求。
◈欧盟《高风险AI公共采购标准合同条款》《非高风险AI公共采购标准合同条款》明确将透明度作为系统的基本要求,并设立了供应商针对受影响个人的“个别决策解释义务”,要求供应商有义务 “在公共组织首次提出请求时,协助公共组织就AI系统在决策程序中的作用提供清晰且有意义的解释。”
◈美国《OMB备忘录》鼓励各机构在适当情况下优先获取促进透明度和可解释性的文档,并确保有充分的手段来跟踪所采购AI的性能和有效性。此外,应注意,与其他法域不同,美国要求各机构(非国安与情报领域)每年向公众公开发布“AI用例清单”。
◈澳大利亚《DTA AI模型条款》强调卖方的透明度与可解释性义务,以确保采购方能够理解并恰当使用个AI系统,且输出可追溯至输入数据: “卖方必须确保AI系统的设计、开发和测试方式能保证其运行具有足够的透明度,从而使得:a.买方能够理解并恰当地使用AI系统;b.<可选>受影响人员能够理解AI系统是如何得出特定决定/输出或影响结果的和/或AI系统在提供政府服务中的作用;以及c.在可能的情况下,其输出可追溯至输入数据。” 此外,卖方必须应要求或针对每项输出向采购方提供所有技术和其他信息。
◈日本《AI利用与开发合同检查清单》提示,从确保透明度的角度出发,根据适用的法律法规,可能会要求供应商提供有关输出生成的某些信息。
◈中国《人工智能辅助起草和审核合同服务总则(征求意见稿)》强调供应商宜提供可解释性输出,包含合同起草和审核规则或依据、条款定位、证据比对与引用来源,以便用户核查;《政务领域人工智能技术合作合规指南》要求供应商向使用者公开AI服务的局限性、服务所使用的模型、算法等概要信息及所采集的个人信息及其使用目的。
【启示】 合同中须设置“透明度与可解释性”义务,要求供应商提供必要的解释及其他协助。关注各法域细节差异,即:欧盟侧重“个别决策解释义务”;美国关注文档获取及公开“AI用例清单”;澳大利亚要求输出可追溯;日本提示依法提供信息;中国关注可解释性输出及服务信息公开。
4. 全生命周期风险管理
各国均强调风险管理应是一个“持续且迭代的过程”,因此需要建立长效的风险管理机制。
◈欧盟《高风险AI公共采购标准合同条款》及《非高风险AI公共采购标准合同条款》明确将风险管理系统定义为一个贯穿合同整个期限的“持续且迭代的过程”,并施加了强制性的定期更新义务: “风险管理系统应被理解为一个在协议整个期限内计划和运行的持续且迭代的过程。因此,在交付AI系统后,供应商必须:(a)定期审查和更新风险管理过程,以确保其持续有效性;(b) 保持风险管理体系相关记录文件(该等文件记录了所有识别的风险、采取的措施及在遵守本条款的背景下进行的测试)处于最新状态;以及(c)毫不迟延地向公共组织提供前述文件的每一个新版本” 。
◈美国《OMB备忘录》强调应对AI系统性能和潜在的不利影响进行持续监控。且必须通过合同条款赋予签约机构定期监控和评估(例如,根据计划的需要,按季度或半年度)AI系统或服务的性能、风险和有效性的能力。此外,与其他法域不同,美国强制要求机构在部署任何高影响AI之前,必须完成人工智能影响评估。
◈澳大利亚《DTA AI模型条款》提示 “买方应根据人工智能系统的目的和预期用途,考虑是否有必要进行隐私影响评估” (该提示位于可选条款项下);并与欧盟高度一致,强调风险管理的持续迭代与更新,并据此设置了“可选”条款 [1] : “AI风险管理系统必须是一个在整个协议期限内运行的持续且迭代的过程。在交付AI系统后,卖方必须:a.定期审查和更新风险管理流程,以确保其持续的有效性;b.保持相关文档处于最新状态;并且c.毫不迟延地向买方提供相关文档的每一个新版本。”
◈日本《AI利用与开发合同检查清单》从实务角度指出,AI系统的风险在开发初期难以完全预见,因此需要在系统的整个持续运行期间,通过阶段性的合同调整来进行全生命周期的风险管理。
◈中国《人工智能辅助起草和审核合同服务总则(征求意见稿)》明确提出建立涵盖监测、漏洞扫描及对抗测试的安全响应机制,并要求构建持续的监测与优化机制;《政务领域人工智能技术合作合规指南》也强调要建立风险问题的长期监测和响应机制。
【启示】 合同须明确约定全生命周期风险管理机制,要求供应商持续更新并接受监督。关注各法域细节差异,即:欧盟强制定期审查和更新;美国设置部署前评估与部署后监控双重机制;澳大利亚设“可选”持续迭代条款;日本主张阶段性调整;中国侧重持续监测与响应机制。
5. 审计与可追溯性
在AI采购及应用中,“审计与可追溯性”是保障AI系统透明、安全可控的核心机制。因此,各法域都对AI系统的应用提出了“审计与可追溯性”的要求。
◈欧盟《高风险AI公共采购标准合同条款》及《非高风险AI公共采购标准合同条款》明确将“自动日志记录”作为实现可追溯性的技术底线 “供应商确保AI系统在技术上允许在系统整个生命周期内自动记录事件(‘日志’)。日志记录功能应确保AI系统具有与系统的预期用途和合理可预见的误用相适应的可追溯性水平。” ;其中,《高风险AI公共采购标准合同条款》还单设了强制性的合规审计条款: “供应商有义务配合公共组织或代表公共组织进行的审计或其他类型的检查” ,以评估供应商是否始终遵守合同中规定的义务。
◈美国《OMB备忘录》强调通过数据溯源和持续的测试评估来实现内部审计及对供应商的监控,如通过合同赋予采购方定期监控和评估AI系统或服务的性能、风险和有效性的能力。
◈澳大利亚《DTA AI模型条款》强制要求记录系统日志以实现运行过程的可追溯,其条款表述与欧盟高度一致。但与其他法域不同,澳大利亚将审计权设为买方“可选”条款: “卖方必须根据买方要求提供以下内容:a.风险评估;b.与训练数据相关的记录(包括数据表);c.系统决策登记册;d.与可靠性和安全性相关的文档;e.训练和试验评估;f.偏见/歧视评估;以及g.为设计、开发、实施、运行及停用AI系统而生成的任何文件。”
◈日本《AI利用与开发合同检查清单》将审计与日志保存作为企业防范内部欺诈和网络攻击、保障系统安全水准的重要合同考虑因素。
◈中国《人工智能辅助起草和审核合同服务总则(征求意见稿)》提示,供应商 “宜建立模型安全与事件响应机制,包含风险防范、监测警告与处置恢复,定期进行对抗测试和漏洞扫描,保障服务在约定范围内安全稳定运行。” 《政务领域人工智能技术合作合规指南》指出,AI系统供应商应定期对人工智能的开发框架、代码等进行安全审计,关注开源框架安全及漏洞相关问题,识别和修复潜在的安全漏洞。
【启示】 合同须明确设置审计与可追溯条款。关注各法域细节差异,即:欧盟强制日志与审计;美国强调数据溯源和持续测试评估;澳大利亚强制记录日志,但审计“可选”;日本关注审计与日志保存;中国强调进行定期漏洞扫描等安全审计。
6. 安全通知
由于AI的“黑箱”特性,模型崩溃、幻觉爆发或被提示词注入攻击时,采购方往往无法第一时间察觉,因此,设置供应商的“安全通知”义务也成为多数法域在合同起草过程中的必然选择。
◈欧盟《高风险AI公共采购标准合同条款》,将“严重事件的报告”作为质量管理系统的必备程序,并强制要求供应商在发现系统不合规或存在安全问题时采取纠正措施并主动通知公共组织: “质量管理系统应以书面政策、程序和指示的形式进行系统有序的记录,并至少应包括以下方面:……(h)与严重事件报告相关的程序。” “如果在协议期限内,供应商认为或有理由认为AI系统不符合MCC-AI-High-Risk合同条款的约定(无论是否为回应公共组织的意见),其应立即采取必要的纠正措施使系统符合要求。供应商应就此相应地通知公共组织。”
◈ 美国《OMB备忘录》与其他法域不同,未设立“事件通知”条款,但要求供应商对AI系统的性能进行持续监控并“纠正不可接受的行为”,实施相应的缓解措施来应对安全事件。
◈澳大利亚《DTA AI模型条款》设立了专门的“事件通知”条款,强制要求供应商在发生AI事件、危害或产生有害输出时必须立即通知采购方并听从指示: “卖方必须:a.立即通知买方;并且b.听从买方的所有合理指示,如果发生以下情况:c.发生了AI事件 (AI Incident) ;d.存在与AI系统相关的AI危害(AI Hazard);e.发生了‘需求说明/规范’中规定的情况;f.<可选>AI系统发生故障或产生不正确或有害的输出;g.<可选>AI系统的行为方式与预期或预测不符,对输出或买方服务的交付产生了不利影响;或h.<可选>AI系统的运行方式不符合法律,包括合同中列出的任何法律或政策” 。
◈日本《AI利用与开发合同检查清单》提示企业在合同中必须落实供应商发生安全事件时的报告义务,以配合用户履行对监管机构的法定通报责任。
◈中国《人工智能辅助起草和审核合同服务总则(征求意见稿)》强调供应商宜建立模型安全与事件响应机制;《政务领域人工智能技术合作合规指南》强调AI系统供应商应履行安全风险报告义务, “在服务过程中发现模型服务存在安全缺陷、漏洞、网络安全等风险时,应当立即采取补救措施、按照规定及时告知服务对象并向有关主管部门报告;涉及危害国家安全、公共利益的,应当在24小时内向有关主管部门报告。”
【启示】 合同须设置供应商的“安全通知”义务,明确供应商在安全事件中的角色及责任。关注各法域细节差异,即:欧盟要求高风险AI须向监管机构报告严重事件;美国强调通过持续监控应对安全事件;澳大利亚设专门事件通知条款;日本强调配合监管通报;中国强调向采购方(服务对象)及监管机构双重报告。
7. 知识产权保护
在AI采购与应用中,知识产权(“IP”)保护是双方博弈的核心焦点之一。AI底层模型可能存在未经授权使用他人知识产权数据的风险,从而导致输出结果也可能侵权。因此,各法域均指出,合同必须明确界定双方在知识产权保护方面的权利和义务。
◈欧盟《高风险AI公共采购标准合同条款》及《非高风险AI公共采购标准合同条款》侧重于通过“交叉赔偿 (Indemnification) ”机制,保护采购方免受因使用AI系统或供应商数据集而引发的第三方知识产权侵权索赔: “供应商应就第三方(包括监管机构)因公共组织使用AI系统、供应商数据集和/或第三方数据集而引起的任何侵犯知识产权、数据保护权或同等权利的索赔,向公共组织提供赔偿。”
◈美国《OMB备忘录》相对于其他法域,其将知识产权保护的重点放在“防范供应商锁定(Vendor Lock-in)”而非“防范侵权责任传导”上,强制要求在合同中清晰界定政府数据的IP权利,确保政府对模型和代码拥有足够的访问权或许可: “保护知识产权和政府数据的使用。根据适用法律和政府政策,各机构必须有适当的流程来处理政府数据的使用,并包含适当的合同条款,明确界定政府和承包商各自的所有权和知识产权。……机构流程应解决以下问题:i.范围。根据人工智能的预期用途,适当地界定许可和其他知识产权的范围,以避免供应商锁定” 。
◈澳大利亚《DTA AI模型条款》单设了“知识产权与AI数据集”条款,不仅提供了“标准模式(买方拥有IP)和替代模式(卖方拥有IP但向买方提供广泛许可)”供选择,还强制要求供应商提供绝对的知识产权非侵权保证: “卖方保证:a.合同材料以及买方对合同材料的使用不会侵犯任何人的知识产权或精神权利”;“标准模式——买方拥有合同材料中的知识产权:a.所有合同材料的知识产权一经产生即归属买方”;“替代模式——所有合同材料的知识产权一经产生即归属或将归属于卖方;并且,卖方授予(或必须为买方获取)买方一项永久的、不可撤销的、免版税的、全球范围的、且非排他性的许可(包括分许可的权利),以出于任何目的使用、复制、改编、修改、执行(展示)、分发、传播、发布、以及开发利用合同材料” 。
◈日本《AI利用与开发合同检查清单》指出,在开发型合同中,必须明确界定“前景知识产权”(通常将开发所创造的成果相关的知识产权定位为前景知识产权)和“背景知识产权”(与开发无关、各方原本拥有的知识产权);同时,强调要求供应商“保证不侵犯第三方的知识产权”并遵守相关法律要求。
◈中国《政务领域人工智能技术合作合规指南》强调宜在合同中界定“背景知识产权”(各方在合同生效之前,或在合同范围之外获得、开发或产生的知识产权),约定知识产权保护条款,内容包括:开发成果的知识产权归属,各方对知识产权的使用权,要求供应商“保证不侵犯第三方的知识产权”,设定知识产权保护措施等。
【启示】 合同中设置不侵权保证条款,明确IP归属。关注各法域细节差异,即:欧盟侧重“交叉赔偿”;美国重在“防范供应商锁定”;澳大利亚提供IP归属模式选项;日本区分前景/背景IP;中国强调背景IP界定及使用权。
8. 设置数据安全退出机制
AI系统在终止合作后,供应商手中可能仍留存采购方用于微调模型的数据或衍生资产。对此,各法域均明确应在合同中明确合作终止时的数据安全退出机制。
◈欧盟《高风险AI公共采购标准合同条款》及《非高风险AI公共采购标准合同条款》在合同条款中强制要求供应商在合同终止时以通用格式移交数据并彻底销毁原数据: “经公共组织首次要求,供应商应将最新版本的公共组织数据集移交给公共组织…… 供应商必须以公共组织指定的通用文件格式将数据集移交给公共组织。”
◈美国《OMB备忘录》强调数据和模型的可移植性: “一旦决定不再延长AI系统或服务的合同,各机构应与供应商合作,执行与持续权利以及访问根据合同提供的服务所产生的任何数据或衍生产品相关的所有合同条款。这包括确保对任何数据的格式和可用性、任何可能导致访问权限过期的情形达成共识,以及制定计划以进行合同条款所需的任何数据或其他衍生资产的转移” 。
◈澳大利亚《DTA AI模型条款》设置“AI数据集和买方数据的移交与销毁”条款: “根据买方要求,卖方必须:a.将买方AI数据集移交给买方;并且b.将最新版本的卖方AI数据集和第三方AI数据集移交给买方……卖方必须以买方要求的格式和媒体类型将AI数据集移交给买方”。“卖方必须在收到要求时或在本合同到期或终止时,立即销毁买方AI数据集的原件和副本……根据买方要求,卖方必须提供销毁买方AI数据集的证据。”
◈日本《AI利用与开发合同检查清单》将合同终止时的数据返还(可移植性)和删除义务作为检查重点。
◈中国《人工智能辅助起草和审核合同服务总则(征求意见稿)》及《政务领域人工智能技术合作合规指南》要求供应商应向采购方明确数据与内容的保存期限和删除方式。
【启示】 合同中明确设定其数据保存、移交和销毁的期限、方式等。关注各法域细节差异,即:欧盟强制移交并销毁;美国强调可移植性;澳大利亚设移交销毁条款并强调销毁证明;日本关注返还与删除义务;中国要求明确保存期限与删除方式。
(二)选择条款:基于风险,灵活选用
由于AI系统的应用场景千差万别,风险等级和数据敏感度各不相同,各法域的合同指引均设置了可基于风险、灵活选用的合同条款指引。
◈欧盟《高风险AI公共采购标准合同条款》对于未直接涉及个人决策或风险较低的场景,将大量合规与审计要求标记为“可选”,允许公共组织根据实际需要决定是否纳入合同。例如,基本权利影响评估条款: “<可选>经公共组织首次要求,供应商应配合公共组织进行一项评估,以评估使用该AI系统可能对基本权利产生的影响。”
◈美国《OMB备忘录》允许机构首席人工智能官(CAIO)在特定场景下对“强制性最低风险管理实践”行使豁免权(如基于特定场景的风险评估等),或对试点项目进行规则豁免(例如“拟议AI用例的试点项目可豁免于最低风险管理实践,前提是:A.该项目的规模和期限是有限的;B.机构CAIO已认证该试点可以推进……”)
◈澳大利亚《DTA AI模型条款》提供了丰富的“可选”条款选项,采购方可根据AI的风险评估结果和场景(如是否面向公众、是否需要试点)来决定是否勾选这些条款。
◈日本《AI利用与开发合同检查清单》提示企业,在合同性质难以界定或安全性要求因场景而异时,部分严苛的条款(如全面审计、初期风险分配)可视情况灵活处理或推迟到后续阶段。
◈中国《人工智能辅助起草和审核合同服务总则(征求意见稿)》作为AI辅助起草、审核应用这一特定场景的合规指引,多采用“宜(推荐)”或“可(允许)”的句式,赋予服务提供方和用户根据实际业务需求灵活配置合规强度的空间;《政务领域人工智能技术合作合规指南》作为行业指引,为政务领域AI应用提供参考工具的同时,也赋予了各方根据自身业务需求较为灵活的选择、参考权利。
【启示】 企业应首先对拟采购的AI系统进行风险评估,明确预期用途、数据敏感度、行动范围及自主程度,据此判断需要纳入合同的风险管控条款的颗粒度与严格程度,避免“一刀切”式堆砌条款。
(三) 定制条款:根据法域特色定制
各国/地区根据自身法律框架、社会文化及国家安全考量,制定了极具地域特色的AI合规条款。
例如:
◈欧盟高度重视公民基本权利及算法的公共透明度,因此在《高风险AI公共采购标准合同条款》中加入了特有的“基本权利影响评估”配合义务: “经公共组织首次要求,供应商应配合公共组织进行一项评估,以评估使用该AI系统可能对基本权利产生的影响” ,并允许公共机构将AI系统的信息列入公开的“AI注册表”中。
◈美国对AI系统应用的管理带有强烈的国家经济与科技竞争力导向特色,在《OMB备忘录》中明确加入了“购买美国货”的政策要求: “最大限度地使用美国制造的人工智能。……在符合适用法律的前提下,美国的政策是购买美国货 (buy American) ,并最大限度地使用在美国开发和生产的人工智能产品和服务。”
◈澳大利亚《DTA AI模型条款》中也包含了极具本国文化与地缘政治特色的条款:(1)强制要求对“原住民数据”进行特殊审查与治理,要求 “所有澳大利亚公共服务机构均须执行《原住民数据治理框架》(GID)。若用于运行、训练或验证AI系统的数据,或AI系统的任何输出内容涉及原住民数据,买方应考虑GID中的相关指引……并说明训练数据是否包含原住民数据” ;(2)设置了具体AI系统的禁令(如DeepSeek),要求合同中必须明确禁止使用被禁系统,并约定违反后果(如立即解约)。
◈日本《AI利用与开发合同检查清单》则特别关注海外AI供应商(如使用境外云服务或API)提供服务时带来的数据跨境转移合规风险。要求采购方需保证输入数据的合法性。建议在企业内部建立输入审查流程,避免因输入问题承担违约责任。
◈中国极为注重生成式AI内容的安全与社会秩序防范,因此在《人工智能辅助起草和审核合同服务总则(征求意见稿)》中明确强调AI的辅助性定位质,引入了强制添加人工智能生成标识(水印)的要求,同时对模型自身的安全性提出了“对抗测试”的要求;《政务领域人工智能技术合作合规指南》也强调了内容标识要求,其强调对于向公众提供人工智能生成合成内容的,供应商应在生成内容上添加显示标识和隐式标识,并要求在合同中应明确说明生成合成内容标识的方法、样式等规范内容。
【启示】 企业在跨国采购或部署AI系统时,必须充分识别并尊重各法域的特殊要求,将具有属地特色的合规义务转化为具体的合同条款,避免因忽视地域差异而引发监管风险或法律纠纷。
三、对AI系统采购方的启示与建议
AI时代,采购方既是AI技术的使用者,也是AI应用合规的参与者。面对各法域日益精细化的AI系统采购合规要求,建议采购方从以下维度构建自身的合规防线:
( 一)确立“三层递进”的合同条款设 计逻辑
1.守住底线: 在合同中设置数据用途限制、人工监督、透明度与可解释性、全生命周期风险管理、审计与可追溯性、安全通知、知识产权保护、数据安全退出等底线条款。同时,应注意根据目标法域的差异化要求对条款细节进行定制。
2.灵活选择: 根据AI系统的预期用途、风险等级和数据敏感度等因素,在底线条款之上灵活增删如风险评估等风险管控条款,平衡合规需求与商业效率。
3.精准定制: 若合同涉及特定法域(如欧盟、美国、澳大利亚等),须识别并嵌入该法域的特色条款(如欧盟的“个体解释义务”、美国的“购买美国货”政策、澳大利亚的“原住民数据”审查等),确保合同在属地法律框架下具有可执行性。
(二)构建“动态适配”的全生命周期风险管理能力
1.设置合同更新机制: 借鉴日本和澳大利亚的灵活做法,通过附件、邮件确认等方式,约定双方可就数据处理地域、新增功能、风险控制措施等进行动态调整,同时明确此类调整的程序与效力。
2.保留持续监督权利: 在合同中明确采购方的持续监督权利,包括定期审计、性能监控、日志调取、安全事件通报等,确保在合同履行期间能够及时发现并应对风险。
3.建立供应商管理制度: 对于长期合作的AI供应商,建立供应商定期评估、风险复盘、能力升级等管理机制,将合同义务转化为日常管理动作。
(三)强化“事前预防”与“事后处置”并重的合规思维
1.将合规前置至选型阶段: 在AI系统选型时,即对供应商的技术能力、合规记录、数据安全水平等进行尽职调查,将高风险供应商排除在采购范围之外。
2.在合同中明确责任边界: 对于AI系统的输出结果,明确“辅助”定位,约定人工复核责任;对于数据跨境传输,明确合规责任归属;对于知识产权侵权风险,明确供应商的赔偿义务。
3.建立应急预案与退出机制: 在合同中明确安全事件的响应流程、数据返还与销毁的程序、供应商锁定的防范措施,确保在风险发生时能够快速响应、有序退出。
注释:
[1] 在澳大利亚《DTA AI模型条款》中,风险管理和审计等条款被标注为“^Optional^”(可选),采购方可基于风险评估决定是否纳入。本文基于全球最佳实践的共识性要求,将其归入“底线条款”,建议采购方纳入合同。
*部分内容由AI生成。
或许您还想看
作者简介 史 蕾 高级联席合伙人 史蕾,数字经济与人工智能业务中心秘书长。曾就职于环球资源(NASQ:GSOL)和奇虎360公司法务部,拥有十多年的公司内部法务工作经验。擅长股权激励、公司治理及互联网产品合规风控;专注互联网游戏、直播、互联网教育与出版、大数据和网络安全等行业领域;新三板挂牌及公司治理。 手机: 15810040811 邮箱: shilei@deheheng.com 江智茹 执业律师 江智茹,曾就职于微软亚太研发集团(实习)和奇虎360,擅长网络安全与数据合规、互联网产品合规风控及投资融等。 手机: 13810669648 邮箱: jiangzhiru@deheheng.com
质控人简介

辛小天
德和衡(深圳)律师所合伙人
数字经济与人工智能业务中心总监
END
