三部门联合发布《智能体规范应用与创新发展实施意见》, AI智能体规范落地提速,数据安全成核心刚需

标签:行业动态 / 2026年5月14日

近日,国家网信办、国家发展改革委、工业和信息化部三部门联合印发《智能体规范应用与创新发展实施意见》(以下简称《意见》),为我国AI智能体产业规范建设、创新发展划定清晰框架与行动准则。《意见》从合规治理、安全防护、产业创新、场景落地等多维度作出系统部署,其中AI智能体全生命周期数据安全管控被列为重点任务,成为各行各业落地智能体应用必须严守的底线要求。

 

随着大模型技术深度迭代,AI智能体已加速融入政企办公、产业生产、政务服务、金融风控等各类核心业务场景。智能体具备自主感知、决策交互、自动调用数据与业务系统的能力,在提升效率、重构业务流程的同时,也让数据采集、传输、调用、存储、共享等环节面临全新安全挑战。《意见》的出台,标志着AI 智能体从技术创新迈入合规规范化发展新阶段,企业亟需补齐数据安全短板,匹配政策监管要求。

Part.1 《意见》核心要点解读

本次《意见》高度重视智能体应用中的数据安全与个人信息保护,核心要求可归纳为三大方向:

严守数据合规底线:规范AI智能体对个人信息、企业敏感数据、重要行业数据的采集与使用,坚持最小必要、合法合规原则,杜绝超范围数据调取与滥用。

健全全流程安全防护体系:覆盖智能体研发、训练、部署、运行、迭代全生命周期,强化数据分级分类、访问管控、加密防护、行为审计等能力建设。

强化风险监测与溯源追责:要求建立智能体数据安全风险研判、实时监测、应急处置机制,实现数据操作行为可审计、可溯源、可管控,防范数据泄露、违规流转等风险。

Part.2 AI智能体数据安全防护现状与行业痛点

当前企业落地AI智能体过程中,数据安全普遍存在多重难点,也是落实《意见》要求的主要堵点:

数据边界模糊,越权访问风险高:AI智能体可自动对接内部知识库、业务系统、员工办公数据,缺乏精细化权限管控,易出现越权调取涉密数据、核心经营数据的情况。

行为不可控难追溯:智能体自主生成、自主交互、自主调用数据,操作行为碎片化、隐蔽化,传统安全手段无法全程记录,一旦发生数据泄露难以定位溯源。

敏感数据裸奔流转:智能体训练、问答交互、对外输出过程中,大量涉密文件、客户信息、经营数据明文传输、明文存储,缺少加密脱敏、防泄漏管控。

合规体系适配不足:多数企业现有数据安全架构仅适配传统业务,未针对AI智能体新增的数据调用、模型训练、内容生成等场景做专项防护,难以匹配《意见》及行业监管合规要求。

内部人员与智能体协同风险叠加:员工借助AI智能体外发文件、拷贝敏感数据,人机联动带来新型数据泄露渠道,管控难度大幅提升。

《意见》的发布,为AI智能体产业划定了安全与合规的发展红线,数据安全不再是可选项,而是企业布局智能体应用的前置必修课。

Thanks!

关注官方微信

企业数据增值必读

联系电话:400-083-9981

Thanks!

立即咨询

如果您任何疑问,请留下联系方式,我们将尽快与您取得联系,并提供专业咨询服务。







    [honeypot honeypot-136]