3 个月前

通过压缩注意力匹配实现通用域适应

通过压缩注意力匹配实现通用域适应

摘要

通用域适应(Universal Domain Adaptation, UniDA)旨在将源域知识迁移到目标域,而无需事先知晓目标域的类别集合。其核心挑战在于如何判断目标样本是否属于共现类别。现有主流方法通常基于样本特征进行判断,过度依赖全局信息,忽视了图像中最为关键的局部对象信息,导致分类精度受限。为解决这一问题,本文提出一种基于视觉Transformer自注意力机制的通用注意力匹配框架(Universal Attention Matching, UniAM),以有效捕捉图像中的关键对象信息。该框架引入一种新颖的压缩注意力匹配(Compressive Attention Matching, CAM)方法,通过压缩方式表征注意力,深入挖掘数据的核心语义信息。此外,CAM进一步结合基于残差的度量机制,用于判断样本的共现性。借助该度量机制,UniAM实现了域级与类别级的共现特征对齐(Common Feature Alignment, CFA)以及目标类别分离(Target Class Separation, TCS)。值得注意的是,UniAM是首个直接利用视觉Transformer中的注意力机制完成分类任务的方法。大量实验结果表明,该方法在多个基准数据集上均显著优于当前最先进的技术。

基准测试

基准方法指标
universal-domain-adaptation-on-domainnetUniAM
H-Score: 61.52
Source-free: no
universal-domain-adaptation-on-office-31UniAM
H-score: 95.95
Source-Free: no
universal-domain-adaptation-on-office-homeUniAM
H-Score: 81.68
Source-free: no
VLM: no
universal-domain-adaptation-on-visda2017UniAM
H-score: 65.18
Source-free: no

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
通过压缩注意力匹配实现通用域适应 | 论文 | HyperAI超神经