
摘要
物体的外观会随着姿态变化而发生显著改变,这对嵌入方法构成了挑战,因为这类方法旨在将具有相同物体ID的实例映射到尽可能接近的位置。在重识别(reID)等复杂的计算机视觉任务中,这一问题尤为突出。本文提出,这种显著的外观变化表明,一个物体ID实际上由多个自然子群组成,若强行将不同子群中的实例映射至同一位置,反而会适得其反。基于此,我们提出一种关系保持的三元组挖掘方法(Relation Preserving Triplet Mining, RPTM),该方法通过特征匹配引导的三元组挖掘机制,确保所选三元组能够尊重物体ID内部的自然子群结构。利用这一挖掘机制,我们构建了一种姿态感知且具有良好条件性的三元组损失函数,该函数通过隐式地强制视角一致性来实现。该方法使得单一网络能够在不同数据集上使用固定参数进行训练,并取得当前最优的性能表现。代码已开源,地址为:https://github.com/adhirajghosh/RPTM_reid。
代码仓库
adhirajghosh/rptm_reid
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| person-re-identification-on-dukemtmc-reid | RPTM | Rank-1: 93.5 Rank-5: 96.1 mAP: 89.2 |
| vehicle-re-identification-on-vehicleid-large | RPTM | Rank-1: 92.9 Rank-5: 96.3 mAP: 80.5 |
| vehicle-re-identification-on-vehicleid-medium | RPTM | Rank-1: 93.3 Rank-5: 96.5 mAP: 81.2 |
| vehicle-re-identification-on-vehicleid-small | RPTM | Rank-1: 95.5 Rank-5: 97.4 mAP: 84.8 |
| vehicle-re-identification-on-veri-776 | RPTM | Rank-1: 97.3 Rank1: 97.3 Rank5: 98.4 mAP: 88.0 |