
摘要
遮挡行人重识别(ReID)是一项旨在将遮挡的行人图像与整体图像进行匹配的任务。为了应对遮挡ReID问题,基于部位的方法已被证明是有益的,因为它们提供了细粒度的信息,并且适合表示部分可见的人体。然而,训练基于部位的模型存在两个挑战。首先,单个身体部位的外观不如全局外观具有区分性(不同的身份可能具有相同的局部外观),这意味着使用身份标签的标准ReID训练目标并不适用于局部特征学习。其次,ReID数据集通常不提供人体地形注释。在本研究中,我们提出了BPBreID,一种基于身体部位的ReID模型,用于解决上述问题。我们首先设计了两个模块来预测身体部位注意力图并生成ReID目标的基于身体部位的特征。然后,我们提出了一种新的训练方案GiLt,该方案能够学习对遮挡和非区分性局部外观具有鲁棒性的基于部位的表示方法。我们在流行的全身影像和遮挡影像数据集上进行了广泛的实验,结果表明所提出的方法的有效性,在具有挑战性的Occluded-Duke数据集上,我们的方法在mAP指标上比现有最先进方法高出0.7%,在rank-1准确率上高出5.6%。我们的代码可在https://github.com/VlSomers/bpbreid 获取。
代码仓库
vlsomers/keypoint_promptable_reidentification
pytorch
GitHub 中提及
vlsomers/bpbreid
官方
pytorch
GitHub 中提及
trackinglaboratory/tracklab
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| person-re-identification-on-dukemtmc-reid | BPBreID (RK) | Rank-1: 93.9 mAP: 92.9 |
| person-re-identification-on-dukemtmc-reid | BPBreID | Rank-1: 92.4 mAP: 84.2 |
| person-re-identification-on-market-1501 | BPBreID | Rank-1: 95.7 mAP: 89.4 |
| person-re-identification-on-market-1501 | BPBreID (RK) | Rank-1: 96.4 mAP: 95.3 |
| person-re-identification-on-occluded-dukemtmc | BPBreID | Rank-1: 75.1 mAP: 62.5 |
| person-re-identification-on-occluded-reid-1 | BPBreID | Rank-1: 82.9 mAP: 75.2 |
| person-re-identification-on-p-dukemtmc-reid | BPBreID | Rank-1: 93.0 mAP: 83.2 |