首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >揭开大语言模型的脆弱面:对抗攻击研究综述(一)

揭开大语言模型的脆弱面:对抗攻击研究综述(一)

作者头像
亿人安全
发布2026-03-19 13:44:23
发布2026-03-19 13:44:23
2650
举报
概述
大型语言模型(LLM)正革新并颠覆人类多个领域,其影响尚处于初步探索阶段。这类模型在规模与能力上高速迭代,架构及应用持续拓展,集成单LLM或多LLM代理的新型系统也不断涌现,逐步融入复杂且相互依赖的技术生态。因此,明确LLM的安全属性,对研发安全稳健的LLM系统至关重要。本文旨在梳理并分类LLM对抗性攻击构成的各类威胁。对抗性攻击是机器学习领域已知的威胁向量。攻击者通过精心构造输入,驱使模型产生可
文章被收录于专栏:红蓝对抗红蓝对抗

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档