
摘要
在计算机视觉中,经常会遇到域偏移问题,即当在一个源数据集上训练的分类器应用于具有相似特征(例如相同的类别)但潜在数据结构不同(例如不同的采集条件)的目标数据时出现的问题。在这种情况下,模型在新数据上的表现会较差,因为分类器专门用于识别源域中的特定视觉线索。在这项工作中,我们探索了一种名为DeepJDOT的解决方案来应对这一问题:通过基于最优传输的联合深度表示/标签差异度量,我们不仅学习了源域和目标域之间对齐的新数据表示,还同时保留了分类器使用的判别信息。我们将DeepJDOT应用于一系列视觉识别任务中,在这些任务中其性能优于最先进的深度域适应方法。
代码仓库
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| domain-adaptation-on-mnist-to-mnist-m | DeepJDOT | Accuracy: 92.4 |
| domain-adaptation-on-mnist-to-usps | DeepJDOT | Accuracy: 95.7 |
| domain-adaptation-on-svnh-to-mnist | DeepJDOT | Accuracy: 96.7 |
| domain-adaptation-on-usps-to-mnist | DeepJDOT | Accuracy: 96.4 |
| domain-adaptation-on-visda2017 | DeepJDOT | Accuracy: 66.9 |
| unsupervised-domain-adaptation-on-visda2017 | DeepJDOT | Accuracy: 66.9 |