
摘要
我们重新审视了行人重识别(re-ID)领域中两种流行的卷积神经网络(CNN),即验证模型和分类模型。这两种模型由于采用了不同的损失函数,因此各自具有优势和局限性。在本文中,我们将探讨如何结合这两种模型以学习更具区分性的行人描述符。具体而言,我们提出了一种新的孪生网络,该网络能够同时计算识别损失和验证损失。给定一对训练图像,该网络可以预测两张图像的身份以及它们是否属于同一身份。我们的网络同时学习了一个区分性嵌入和一个相似度测量方法,从而充分利用了注释信息。尽管方法简单,但所学的嵌入在两个公开的行人重识别基准上提升了最先进的性能。此外,我们还展示了该架构也可应用于图像检索。
代码仓库
layumi/Person-reID-verification
pytorch
GitHub 中提及
ahangchen/rank-reid
pytorch
LDVC124/2016_person_re-ID
GitHub 中提及
layumi/2016_person_re-ID
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-retrieval-on-oxford5k | Identification+Verification | mAP: 76.4 |
| person-re-identification-on-cuhk03 | DLCE | MAP: 86.4 Rank-1: 83.4 |
| person-re-identification-on-dukemtmc-reid | DLCE | Rank-1: 68.9 mAP: 49.3 |
| person-re-identification-on-market-1501 | DLCE | Rank-1: 79.51 mAP: 59.87 |
| person-re-identification-on-market-1501-500k | DLCE | MAP: 45.24 Rank-1: 68.26 |
| person-re-identification-on-msmt17 | DLCE | Rank-1: 60.48 mAP: 31.58 |