
摘要
尽管近年来监督式行人重识别(Re-ID)取得了显著进展,但由于行人视角变化带来的视觉差异,该任务仍面临巨大挑战。现有的多数基于视角的行人Re-ID方法将不同视角的图像投影到彼此独立且无关的子特征空间中,仅建模了单一视角内的身份级分布,而忽略了不同视角之间的潜在关联。为解决这一问题,本文提出一种新方法——视角感知角正则化损失(Viewpoint-Aware Loss with Angular Regularization, VA-reID)。与为每个视角单独设置子空间的传统方法不同,我们的方法将来自不同视角的特征统一映射到一个超球面空间中,从而在身份级别和视角级别上均能有效建模特征分布。此外,不同于传统视角分类中将视角视为硬标签的做法,我们引入了视角感知自适应标签平滑正则化(Viewpoint-Aware Adaptive Label Smoothing Regularization, VALSR),为特征表示分配自适应的软标签,有效缓解了视角聚类标签分配的模糊性问题。在Market1501和DukeMTMC-reID数据集上的大量实验表明,所提方法在性能上优于当前最先进的监督式Re-ID方法。
代码仓库
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| person-re-identification-on-dukemtmc-reid | Viewpoint-Aware Loss(RK) | Rank-1: 93.9 Rank-5: 96.5 mAP: 91.8 |
| person-re-identification-on-market-1501 | Viewpoint-Aware Loss(RK) | Rank-1: 96.79 Rank-5: 98.31 mAP: 95.43 |