3 个月前

原型跨域自监督学习用于少样本无监督域自适应

原型跨域自监督学习用于少样本无监督域自适应

摘要

无监督域自适应(Unsupervised Domain Adaptation, UDA)旨在将一个完全标注的源域上的预测模型迁移到未标注的目标域。然而,在某些应用场景中,即使在源域收集标签也成本高昂,导致大多数现有方法难以实际应用。为应对这一挑战,近期研究采用了实例级跨域自监督学习,并辅以额外的微调阶段。但此类实例级自监督学习仅能学习并对齐低层次的判别性特征,难以捕捉高层语义结构。本文提出一种面向少样本无监督域自适应(Few-shot Unsupervised Domain Adaptation, FUDA)的端到端原型跨域自监督学习(Prototypical Cross-domain Self-Supervised Learning, PCS)框架。PCS不仅实现了跨域低层特征对齐,还在共享嵌入空间中编码并对齐跨域的语义结构。该框架通过域内原型对比学习捕捉数据的类别级语义结构,并借助跨域原型自监督机制实现特征对齐。与当前最先进方法相比,PCS在FUDA任务中分别在Office、Office-Home、VisDA-2017和DomainNet四个数据集上,将不同域对之间的平均分类准确率提升了10.5%、3.5%、9.0%和13.2%。项目主页详见:http://xyue.io/pcs-fuda/index.html

代码仓库

zhengzangw/PCS-FUDA
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
semantic-segmentation-on-densepassPCS
mIoU: 53.83%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
原型跨域自监督学习用于少样本无监督域自适应 | 论文 | HyperAI超神经