首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >Pattern Recognition 2026 | 别再让“预训练”白费功夫!用领域对齐技术,攻克基于文本的行人检索的数据鸿沟

Pattern Recognition 2026 | 别再让“预训练”白费功夫!用领域对齐技术,攻克基于文本的行人检索的数据鸿沟

作者头像
用户12352912
修改2026-03-30 20:36:57
修改2026-03-30 20:36:57
1020
举报
概述
合成数据能解决基于文本的行人检索的隐私与数据稀缺问题,但“领域鸿沟”让预训练效果大打折扣。为此,我们提出双层面领域对齐框架,从图像级和区域级两个层面,系统性地缩小合成数据与真实数据之间的差距。我们的方法在 CUHK-PEDES、ICFG-PEDES、RSTPReid 上均取得 SOTA 结果,跨域泛化能力显著提升。代码与数据集已开源。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、痛点直击:为什么预训练效果“打了折”?
  • 二、我们做了什么?—— 从图像到区域,双层面“对齐”
    • 1. 图像级对齐: Domain-aware Diffusion (DaD)
    • 2. 区域级对齐: Multi-granularity Relation Alignment (MRA)
  • 三、实验结果:SOTA 成绩验证“对齐”的力量
  • 四、亮点总结:这篇论文能给你带来什么?
    • 下一步:从图像走向视频,从常规走向异常
    • 写在最后
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档