
摘要
我们提出了一种适用于语义分割任务的域适应方法,该方法兼具实用性与高精度。与以往研究不同,我们摒弃了计算开销较大的对抗性目标、网络集成以及风格迁移等复杂策略。相反,我们采用标准的数据增强技术——如光照噪声、图像翻转与缩放,并确保在这些图像变换下语义预测结果保持一致性。我们在此原则基础上构建了一个轻量级的自监督框架,通过协同演化的伪标签进行训练,无需繁琐的额外训练轮次。从实践者的角度来看,该方法训练过程极为简洁,但效果却十分显著。无论在不同的主干网络架构还是不同的域适应场景下,我们的方法均能实现显著优于现有最先进水平的分割精度提升,且结果具有高度一致性。
代码仓库
visinf/da-sac
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| domain-adaptation-on-synthia-to-cityscapes | SAC (ResNet-101) | mIoU: 52.6 |
| domain-adaptation-on-synthia-to-cityscapes | SAC (VGG-16) | mIoU: 49.1 |
| synthetic-to-real-translation-on-gtav-to | SAC | mIoU: 53.8 |
| synthetic-to-real-translation-on-synthia-to-1 | SAC(ResNet-101) | MIoU (13 classes): 59.3 MIoU (16 classes): 52.6 |