亿人安全
揭开大语言模型的脆弱面:对抗攻击研究综述(一)
原创
关注作者
腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
亿人安全
社区首页
>
专栏
>
揭开大语言模型的脆弱面:对抗攻击研究综述(一)
揭开大语言模型的脆弱面:对抗攻击研究综述(一)
亿人安全
关注
发布于 2026-03-19 13:44:23
发布于 2026-03-19 13:44:23
265
0
举报
概述
大型语言模型(LLM)正革新并颠覆人类多个领域,其影响尚处于初步探索阶段。这类模型在规模与能力上高速迭代,架构及应用持续拓展,集成单LLM或多LLM代理的新型系统也不断涌现,逐步融入复杂且相互依赖的技术生态。因此,明确LLM的安全属性,对研发安全稳健的LLM系统至关重要。本文旨在梳理并分类LLM对抗性攻击构成的各类威胁。对抗性攻击是机器学习领域已知的威胁向量。攻击者通过精心构造输入,驱使模型产生可
文章被收录于专栏:
红蓝对抗
红蓝对抗
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
腾讯云OpenClaw玩虾大赛
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
腾讯云OpenClaw玩虾大赛
评论
登录
后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档
0
0
0
推荐