

3月27日腾讯云城市峰会上海站,中国信通院与腾讯云联合发布《AI Agent安全实践指引》,系统梳理了AI Agent面临的高发风险,并提出“三步走”安全实践路径,助力企业及个人在AI Agent实践过程中实现“看得清、用得稳、风险可追溯”的安全目标。
以下是《AI Agent安全实践指引》全文:
一、AI Agent的五类高发风险
随着AI Agent在企业中的规模化部署,传统围绕「人」与「应用」构建的安全体系正面临根本性挑战。AI Agent具备自主决策、工具调用与数据访问能力,一旦安全治理缺位,将引发一系列新型风险。
1.1 权限管控不当,导致“小问题变成大事故”
AI Agent要完成任务,往往需要访问文件、调用工具、连接系统、读取上下文,甚至代表用户执行操作。若部署时默认赋予过高权限,或直接沿用管理员账号、共享凭据、全量数据访问权限,就可能使普通错误被迅速放大为严重事故。
例如,一个本来只需要“查询”的AI Agent,若被赋予了“删除、修改、导出、外发”的能力,就可能因误判、幻觉或被诱导执行,而造成数据误删、文件外传、配置被篡改,甚至触发主机被控制。全球应用安全的权威非营利组织开放全球应用安全项目(Open Worldwide Application Security Project,OWASP) 将此类问题概括为代理权限溢出(Excessive Agency),其根源通常包括过大权限和过高自治度。
风险提示:在赋予AI Agent能力前,先划清权限边界;高风险操作必须最小授权、分级授权、必要时人工确认。
1.2 外部组件存隐患,引入供应链风险
AI Agent高度依赖外部组件扩展能力,包括外部技能(Skills)、插件(Plugin)、连接器(Connector)和工具(MCP)扩展能力。问题在于,这些外部组件本身可能存在恶意代码、隐蔽执行、依赖投毒、提示词注入或越权访问等问题,形成供应链安全风险。一旦企业在未审查来源、未核验权限、未做隔离的情况下直接接入,风险就会轻易从模型本身扩散到外围生态。
2026年2月披露的公开研究显示,在对技能市场ClawHub 的2,857 个Skills的审计中发现 341 个恶意Skills,约占12%。恶意Skills的入侵路线包括安装时执行任意脚本、运行时通过SDK访问配置和会话等。
风险提示:给AI Agent加能力时,提防给攻击者开入口,必须核验来源、审查权限、固定版本、评估依赖,并对高风险组件实施隔离和持续扫描。
1.3 输入内容不设防,引发敏感信息泄露
与传统软件不同,AI Agent具备对外部输入的理解和执行能力。网页、邮件、文档、聊天内容、图片、插件返回结果,甚至历史会话内容,都可能成为影响AI Agent行为的输入源。这些输入源夹杂的攻击形式包括直接注入(通过对话诱导执行恶意指令)、间接注入(通过文档或图片植入恶意指令)、记忆投毒(污染历史会话上下文)和凭证窃取(诱导输出API Key或密码)。
例如,如果企业默认信任这些输入,AI Agent就可能被诱导忽略既有规则、导出非授权数据、泄露访问令牌、跳转至恶意站点,或调用未授权高风险工具。
风险提示:使用AI Agent执行操作时,提防恶意行为“借AI Agent之手完成攻击”。
1.4 运行环境隔离不足,造成风险横向扩散
很多企业在试点阶段,往往直接在办公终端、测试服务器或共享环境中运行AI Agent。一旦终端被入侵、浏览器被劫持、进程被注入,或者AI Agent进程缺乏容器、虚机、网络边界等基础隔离措施,风险就可能从单个AI Agent扩散到办公网、内网应用和终端数据。
风险提示:这类风险本质上不是模型自身风险,而是将智能体等同于普通软件部署、缺乏环境隔离管控所引入的系统性运行风险。
1.5 审计溯源机制缺位,导致“出了事也说不清”
很多企业在部署AI Agent时,更关注“能不能跑起来”,却忽略了“跑起来之后如何看、如何管、如何停”。如果没有对话留痕、工具调用记录、审批记录、异常告警和停用机制,一旦出现误操作、数据泄露或越权调用,企业将面临三重问题:一是发现慢;二是查不清;三是止不住。
缺乏系统性安全审计日志,将导致攻击发现滞后、根因不明、责任无法界定及风险持续扩散。因为AI Agent的行为链条通常跨越模型、工具、插件、技能、系统接口和用户上下文等多个环节,如果缺乏完整的日志与可追溯责任链设计,将难以判断问题究竟源于模型推理、外部输入、工具调用,还是权限配置失当。
风险提示:对AI Agent来说,事后不可追溯,往往比单次出错本身更危险。
二、AI Agent安全使用原则「六要六不要」
3月11日,针对AI Agent框架(如OpenClaw)典型应用场景下的安全风险,工业和信息化部网络安全威胁和漏洞信息共享平台(NVDB)组织AI Agent提供商、漏洞收集平台运营单位、网络安全企业等,研究提出“六要六不要”建议。
以下六条安全使用建议,适用于企业与个人用户部署和使用AI Agent的全生命周期。
2.1 使用官方最新版本。要从官方渠道下载最新稳定版本,并开启自动更新提醒;在升级前备份数据,升级后重启服务并验证补丁是否生效。
不要使用第三方镜像版本或历史版本。
2.2 严格控制互联网暴露面。要定期自查是否存在互联网暴露情况,一旦发现立即下线整改。确需互联网访问的可以使用SSH等加密通道,并限制访问源地址,使用强密码或证书、硬件密钥等认证方式。
不要将智能体实例直接暴露到互联网。
2.3 坚持最小权限原则。要根据业务需要授予完成任务必需的最小权限,对删除文件、发送数据、修改系统配置等重要操作进行二次确认或人工审批;优先考虑在容器或虚拟机中隔离运行,形成独立的权限区域。
不要在部署时使用管理员权限账号。
2.4 谨慎使用技能市场。要审慎下载技能包,并在安装前审查技能包代码。
不要使用要求「下载ZIP」、「执行shell脚本」或「输入密码」的技能包。
2.5 防范社会工程学攻击和浏览器劫持。要使用浏览器沙箱、网页过滤器等扩展阻止可疑脚本,启用日志审计功能,遇到可疑行为立即断开网关并重置密码。
不要浏览来历不明的网站、点击陌生的网页链接、读取不可信文档。
2.6 建立长效防护机制。要定期检查并修补漏洞,及时关注官方安全公告、工业和信息化部网络安全威胁和漏洞信息共享平台等漏洞库的风险预警。党政机关、企事业单位和个人用户可以结合网络安全防护工具、主流杀毒软件进行实时防护,及时处置可能存在的安全风险。
不要禁用详细日志审计功能。
企业在落地过程中需持续关注两个核心命题:谁可以使用智能体(明确使用者身份与授权边界)以及智能体可以访问什么(对其可触达的数据、工具与接口进行权限控制与审计留痕)。
*来源:工业和信息化部网络安全威胁和漏洞信息共享平台
三、从“能用”到“可控”:AI Agent安全实践「三步走」
以下为具体安全部署建议,适用于企业与个人用户在云端或终端场景下部署AI Agent。
3.1 部署:实现从基础加固到企业级控制
个人及企业在部署AI Agent应用过程中,安全与易用的平衡是持续治理的基本准则。建议从AI Agent基础加固出发,逐步完成企业级防护的三层安全建设。
无论个人还是企业,应用AI Agent首先需要做好基本的安全加固与安全配置;其次要明确AI Agent的权限边界,包括可调用的工具、可访问的资源,同时对关键操作设置二次确认机制;最后在企业范围内,需设计统一的企业级安全控制策略。
基础级:基础安全加固(对用户体验几乎无影响,覆盖80%高危风险)
专业级:人工确认与访问控制(危险操作由人来决策,降低误操作和注入攻击成功率)
企业级:企业级安全控制(完整防护体系,配置较为复杂)
3.2 运行:从输入到执行的三道安全防线
在具体技术侧,需要建立三道核心安全防线。
3.3 保障:五层全链条安全监测防护机制
部署与运行阶段,应围绕频道入口、工具调度、行为执行、记录审计和配置加固五个关键环节,建立系统化安全控制机制:

腾讯云副总裁、腾讯云智能负责人、腾讯优图实验室负责人吴运声在腾讯云上海城市峰会分享腾讯“龙虾”安全工具箱,为企业及用户提供开箱即用的防护体系:AI Agent安全中心、AI Agent安全网关、iOA、腾讯电脑管家、HaS skill等,实现Agent资产盘点、Agent行为管控、Skills风险防范、秘钥凭据保护、深度审计与溯源、提示词注入保护、内容安全、数据防泄漏与Token限流等全链路龙虾安全防护能力。
总结
AI Agent的安全落地需要企业从风险认知、安全原则到产品部署进行系统规划。对于企业而言,实现安全、可靠、可控的AI Agent部署与应用需要实现:
本文系转载,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文系转载,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。