来源:吉林省高级人民法院
发布日期:2026年04月21日

牛敬良 张英男
当前,人工智能正以前所未有的速度催生以数据驱动、人机协同、跨界融合为特征的智能经济与智能社会新形态,为经济社会高质量发展持续赋能。然而,在人工智能产业蓬勃兴起、应用场景不断拓展的同时,其潜藏的技术伦理、数据安全、社会治理等多重风险与挑战也日益凸显,已然成为关乎国家安全、社会稳定和人民福祉的重大现实课题。经梳理分析,这些风险挑战主要集中在以下方面。
一是数据失当,管理风险升级。 人工智能的稳定运行高度依赖海量高质量数据支撑,数据管理失当引发的安全风险,已从早期的个体权益侵害范畴逐步升级为关系行业的系统性安全威胁。当用户将敏感数据交付“龙虾”类AI智能体处理时,若智能体的防护体系被攻破,易引发隐私泄露与财产安全风险。科研机构、企业人员违规使用开源AI工具处理涉密数据,可能导致核心技术信息、商业机密等被境外IP窃取,造成重大损失。
二是技术滥用,干扰社会治理。 从技术应用维度审视,人工智能若被不当使用,不仅会扰乱市场公平竞争秩序、消解社会治理效能,还可能对公民合法权益造成实质性侵害。在商业领域,部分市场主体为追逐短期利益,将AI技术异化为不正当竞争的工具,利用AI算法进行虚假宣传,扰乱正常市场交易秩序。在社会治理场景中,若AI技术被不法分子利用,可能侵犯公民个人信息与财产安全,还可能通过编造虚假信息扰乱社会公共秩序。
三是主体多元,责任划分复杂。 在人工智能深度嵌入经济社会运行肌理的当下,其治理面临的核心挑战之一便是责任划分的模糊性与复杂性。人工智能的价值链贯穿数据采集标注、算法模型训练、系统开发部署、终端场景应用等多个环节,每个环节都涉及不同类型的参与主体,责任链条长且主体多元,传统侵权责任体系中的“过错责任”原则在这一复杂场景下往往面临适用困境,给司法实践带来了新的挑战。
针对上述问题,笔者建议采取如下对策。
一是坚持鼓励创新与适度监管相结合。 一方面,应构建包容创新的制度环境。通过完善政策支持体系、强化知识产权保护等举措,为企业和科研机构加大研发投入、突破核心技术、拓展应用场景保驾护航。另一方面,应建立适配技术迭代的监管框架。以分类分级监管为核心,针对自动驾驶、医疗AI等高风险领域实施严格准入管理与全生命周期监测,重点防控技术应用对国家安全、社会秩序、公共利益及个人权益的潜在风险,确保人工智能发展始终契合法律法规、伦理道德与公共利益要求。
二是加强人工智能安全能力建设。 “十五五”规划纲要将人工智能纳入网络、数据等新兴领域国家安全能力建设范畴。这一部署不仅明确了人工智能在国家安全体系中的关键地位,更为构建安全可控的智能生态指明了方向。应从技术研发、制度构建双维度协同发力,将数据加密、风险预警、应急响应等安全技术嵌入算法研发、模型训练、场景应用全生命周期,完善分级分类监管机制,细化安全评估标准与责任追溯体系,通过技术与制度的深度融合,让人工智能在安全框架内充分释放效能,成为驱动经济社会高质量发展的重要引擎。
三是推动人工智能在法治轨道上健康前行。 2026年1月1日起施行的新修订的《中华人民共和国网络安全法》,首次增设人工智能专门条款,在明确支持技术研发的同时,强化风险监测与安全监管,标志着我国人工智能治理正式迈入法治化新阶段。应把握以人为本、安全可控、公平正义、创新发展基本原则,以系统性制度建设筑牢风险防线。一方面,通过细化法规配套、完善标准体系,为技术创新划定清晰法治边界。另一方面,依托法治框架规范研发、应用全流程,始终以公共利益和社会福祉为标尺规范人工智能发展,努力实现高质量发展和高水平安全的动态平衡。
更多精彩 敬请关注



重点回顾
来源: 人民法 院 报
初审:董新月 田兴志
复审:王洁瑜
终审:徐冠

微信号 : jilinshenggaoyuan
吉林省高级人民法院
● 扫码关注我们 ●