亿人安全
揭开大语言模型的脆弱面:对抗攻击研究综述(三)
原创
关注作者
腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
亿人安全
社区首页
>
专栏
>
揭开大语言模型的脆弱面:对抗攻击研究综述(三)
揭开大语言模型的脆弱面:对抗攻击研究综述(三)
亿人安全
关注
发布于 2026-04-02 17:32:38
发布于 2026-04-02 17:32:38
143
0
举报
概述
提示注入与越狱的区别 提示注入攻击主要聚焦于操控模型输入,通过对抗性构造的提示,使模型错误地将输入数据视为指令,从而生成攻击者控制的误导性输出。这类攻击劫持了模型本该执行的任务,该任务通常由系统提示决定。相比之下,越狱提示专门设计用来绕过服务提供商通过模型对齐或其他约束施加的限制,目标是使模型产生超出安全训练和对齐范围的输出。攻击者机会:提升指令遵循目标权重 近年来,大型语言模型在遵循指令方面取得
文章被收录于专栏:
红蓝对抗
红蓝对抗
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
腾讯云OpenClaw玩虾大赛
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
腾讯云OpenClaw玩虾大赛
评论
登录
后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档
0
0
0
推荐