首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >揭开大语言模型的脆弱面:对抗攻击研究综述(四)

揭开大语言模型的脆弱面:对抗攻击研究综述(四)

作者头像
亿人安全
发布2026-04-09 10:16:19
发布2026-04-09 10:16:19
1470
举报
概述
针对多模态模型的对抗性攻击。这类模型不仅接受文本输入,还能处理图像、音频等多种模态信息。近年来,大量大语言模型(LLM)被扩展为多模态版本,例如支持文本+图像、视频、音频、深度图甚至热成像等输入。尽管这些能力打开了众多创新应用的大门,但也带来了显著的安全隐患。可以将这种扩展类比为给房子增加更多门窗——虽然便利了进出,却也无意中为攻击者提供了更多入侵路径。多模态模型通常会将不同模态的输入融合为一个联
文章被收录于专栏:红蓝对抗红蓝对抗

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档