
摘要
跨域行人重识别(re-ID)模型在不同领域之间通常难以很好地泛化。在我们的研究中,我们提出了一种“通过翻译学习”的框架。在基线方法中,我们以无监督的方式将源域中的标记图像翻译到目标域。然后,我们使用这些翻译后的图像通过有监督的方法训练行人重识别模型。然而,作为该框架的重要组成部分,无监督图像到图像的翻译在转换过程中会导致源域标签信息的丢失。我们的动机有两个方面。首先,对于每张图像,其ID标签中包含的判别特征应在翻译后得以保留。其次,考虑到两个领域中的人员完全不同,翻译后的图像应与任何目标ID都不相似。为此,我们提出保留两种类型的无监督相似性:1)图像在翻译前后的自相似性;2)翻译后的源域图像与目标域图像之间的域间非相似性。这两种约束条件均在保持相似性的生成对抗网络(SPGAN)中实现,该网络由一个Siamese网络和一个CycleGAN组成。通过领域适应实验,我们展示了SPGAN生成的图像更适合领域适应,并且在两个大规模数据集上取得了稳定且具有竞争力的行人重识别准确率。
代码仓库
Simon4Yan/Learning-via-Translation
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| person-re-identification-on-dukemtmc-reid | SPGAN+LMP* | Rank-1: 46.4 mAP: 26.2 |
| unsupervised-domain-adaptation-on-duke-to | SPGAN | mAP: 22.8 rank-1: 51.5 rank-10: 76.8 rank-5: 70.1 |
| unsupervised-domain-adaptation-on-market-to | SPGAN | mAP: 22.3 rank-1: 41.1 rank-10: 63.0 rank-5: 56.6 |
| unsupervised-person-re-identification-on-4 | SPGAN+LMP | MAP: 26.7 Rank-1: 57.7 Rank-10: 82.4 Rank-5: 75.8 |
| unsupervised-person-re-identification-on-5 | SPGAN+LMP | MAP: 26.2 Rank-1: 46.4 Rank-10: 68.0 Rank-5: 62.3 |
| unsupervised-person-re-identification-on-6 | SPGAN | Rank-1: 46.4 Rank-10: 68.0 Rank-5: 62.3 mAP: 26.2 |