亿人安全
揭开大语言模型的脆弱面:对抗攻击研究综述(五)
原创
关注作者
腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
亿人安全
社区首页
>
专栏
>
揭开大语言模型的脆弱面:对抗攻击研究综述(五)
揭开大语言模型的脆弱面:对抗攻击研究综述(五)
亿人安全
关注
发布于 2026-04-09 11:11:12
发布于 2026-04-09 11:11:12
133
0
举报
概述
代理攻击中,大语言模型(LLM)可作为受害客户端与攻击者控制的网络服务间的代理。即便 LLM 本身无网页浏览能力,为其接入对应插件后,整个系统便易遭受对抗性攻击。这类攻击具备明显优势:攻击的 IP 地址由 LLM 生成,且以 LLM 作为连接节点,几乎不会留下可追踪痕迹。该攻击的实施可分为四个步骤:提示初始化、IP 地址生成、载荷生成、服务器的通信。执行流程:先绕过 LLM 防护机制,诱导其对有害
文章被收录于专栏:
红蓝对抗
红蓝对抗
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
腾讯云OpenClaw玩虾大赛
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
腾讯云OpenClaw玩虾大赛
评论
登录
后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档
0
0
0
推荐