亿人安全
揭开大语言模型的脆弱面:对抗攻击研究综述(四)
原创
关注作者
腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
亿人安全
社区首页
>
专栏
>
揭开大语言模型的脆弱面:对抗攻击研究综述(四)
揭开大语言模型的脆弱面:对抗攻击研究综述(四)
亿人安全
关注
发布于 2026-04-09 10:16:19
发布于 2026-04-09 10:16:19
147
0
举报
概述
针对多模态模型的对抗性攻击。这类模型不仅接受文本输入,还能处理图像、音频等多种模态信息。近年来,大量大语言模型(LLM)被扩展为多模态版本,例如支持文本+图像、视频、音频、深度图甚至热成像等输入。尽管这些能力打开了众多创新应用的大门,但也带来了显著的安全隐患。可以将这种扩展类比为给房子增加更多门窗——虽然便利了进出,却也无意中为攻击者提供了更多入侵路径。多模态模型通常会将不同模态的输入融合为一个联
文章被收录于专栏:
红蓝对抗
红蓝对抗
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
腾讯云OpenClaw玩虾大赛
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
腾讯云OpenClaw玩虾大赛
评论
登录
后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档
0
0
0
推荐