
摘要
现有的行人重识别基准和方法主要集中在查询图像与候选图像之间裁剪的行人图像匹配上。然而,这与现实场景存在差异,在现实场景中,行人的边界框注释不可用,需要从包含整个场景的图库中搜索目标人物。为了缩小这一差距,我们提出了一种新的深度学习框架用于行人搜索。该框架没有将任务分解为两个独立的部分——行人检测和行人重识别,而是通过单一卷积神经网络同时处理这两个方面。为此,我们提出了一种在线实例匹配(OIM)损失函数来有效训练网络,该函数可扩展至包含大量身份的数据集。为了验证我们的方法,我们收集并标注了一个大规模的行人搜索基准数据集。该数据集包含18,184张图像、8,432个身份以及96,143个行人边界框。实验结果表明,我们的框架优于其他分离的方法,并且所提出的OIM损失函数比传统的Softmax损失函数收敛速度更快、效果更好。
代码仓库
ShuangLI59/person_search
官方
GitHub 中提及
ChrisLee63/person_search
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| person-re-identification-on-cuhk03 | OIM Loss 45 | MAP: 72.5 Rank-1: 77.5 |
| person-re-identification-on-dukemtmc-reid | OIM | Rank-1: 68.1 mAP: 47.4 |