3 个月前

原型对比自适应用于域自适应语义分割

原型对比自适应用于域自适应语义分割

摘要

无监督域自适应(Unsupervised Domain Adaptation, UDA)旨在将基于带标签源域训练的模型迁移到无标签目标域。本文提出了一种简单且高效的对比学习方法——原型对比自适应(Prototypical Contrast Adaptation, ProCA),用于无监督域自适应下的语义分割任务。以往的域自适应方法仅关注跨不同域的类内表示分布对齐,而对类间结构关系的探索不足,导致在目标域上对齐后的表示可能不再像源域那样具有良好的可区分性。相比之下,ProCA将类间信息融入类级原型中,并采用以类为中心的分布对齐策略进行域自适应。具体而言,ProCA将同一类的原型视为正样本,其他类的原型视为负样本,从而实现类中心分布对齐。该方法在经典的域自适应任务上取得了当前最优性能,包括GTA5 → Cityscapes 以及 SYNTHIA → Cityscapes。代码已公开,地址为:https://github.com/jiangzhengkai/ProCA。

代码仓库

jiangzhengkai/proca
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
domain-adaptation-on-gta5-to-cityscapesProCA
mIoU: 56.3
unsupervised-domain-adaptation-on-synthia-toProCA(ResNet-101)
mIoU (13 classes): 59.6

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
原型对比自适应用于域自适应语义分割 | 论文 | HyperAI超神经