
摘要
神经架构搜索(NAS)在目标重识别(ReID)领域越来越受到关注,因为针对特定任务的架构显著提高了检索性能。以往的研究探索了新的优化目标和搜索空间以应用于NAS ReID,但它们忽视了图像分类和ReID之间训练方案的差异。在这项工作中,我们提出了一种新颖的双胞胎对比机制(Twins Contrastive Mechanism, TCM),为ReID架构搜索提供更加合适的监督。TCM减少了训练数据和验证数据之间的类别重叠,并帮助NAS模拟现实世界中的ReID训练方案。随后,我们设计了一个多尺度交互(Multi-Scale Interaction, MSI)搜索空间,用于搜索多尺度特征之间的合理交互操作。此外,我们引入了一个空间对齐模块(Spatial Alignment Module, SAM),以进一步增强面对不同来源图像时的注意力一致性。在所提出的NAS方案下,自动搜索出一个特定的架构,并命名为MSINet。大量实验表明,我们的方法在域内和跨域场景中均超越了现有的最先进ReID方法。源代码可在https://github.com/vimar-gu/MSINet 获取。
代码仓库
vimar-gu/msinet
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| person-re-identification-on-market-1501 | MSINet (2.3M w/o RK) | Rank-1: 95.3 mAP: 89.6 |
| person-re-identification-on-msmt17 | MSINet (2.3M w/o RK) | Rank-1: 81 mAP: 59.6 |
| vehicle-re-identification-on-vehicleid-large | MSINet (2.3M w/o RK) | Rank-1: 77.9 Rank-5: 91.7 |
| vehicle-re-identification-on-veri-776 | MSINet (2.3M w/o RK) | Rank-1: 96.8 mAP: 78.8 |