
摘要
并非所有人都同样容易识别:在某些情况下,颜色统计信息可能已经足够,而在其他情况下,则可能需要仔细分析高层次和低层次的细节。然而,现有的人员再识别(re-ID)方法通常对所有情况都使用来自深度卷积网络的一刀切的高层次嵌入。这可能会限制它们在困难样本上的准确性,或者在简单样本上造成不必要的计算开销。为了解决这一问题,我们提出了一种新的人员再识别模型,该模型结合了基于多个卷积网络层的有效嵌入,并通过深度监督进行训练。在传统的再识别基准测试中,我们的方法在评估的五个数据集上均显著优于以往的最先进结果。随后,我们提出了两种新的资源约束下的人员再识别问题表述,并展示了如何在资源受限的情况下有效地权衡准确性和计算量。代码和预训练模型可在 https://github.com/mileyan/DARENet 获取。
代码仓库
mileyan/DARENet
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| person-re-identification-on-cuhk03-detected | DaRe+RE (CVPR'18) | MAP: 59.0 Rank-1: 63.3 |
| person-re-identification-on-cuhk03-labeled | DaRe+RE (CVPR'18) | MAP: 61.6 Rank-1: 66.1 |
| person-re-identification-on-dukemtmc-reid | DaRe(De)+RE+RR [wang2018resource] | Rank-1: 84.4 mAP: 80.0 |
| person-re-identification-on-market-1501 | DaRe(De)+RE+RR [wang2018resource] | Rank-1: 90.9 mAP: 86.7 |