
摘要
近年来,深度学习模型在视频行人重识别(Video Person Re-Identification, Re-ID)任务中取得了显著进展。视频行人Re-ID的关键在于,如何在复杂多变的场景下有效构建具有判别性与鲁棒性的视频特征表示。基于局部区域的方法通常利用空间与时间注意力机制来提取具有代表性的局部特征。然而,以往的方法往往忽略了不同局部区域之间的关联性。为充分挖掘各部分之间的内在关系,本文提出一种创新的自适应图表示学习框架,用于视频行人Re-ID,从而实现相关区域特征之间的上下文交互。具体而言,我们结合姿态对齐连接与特征亲和连接,构建一种自适应的结构感知邻接图,以建模图节点间的内在关联。在此图结构上,我们进行特征传播,迭代地优化区域特征,并在局部特征表示中融入邻近节点的信息。为进一步学习紧凑且具有判别力的特征表示,我们进一步提出一种新颖的时间分辨率感知正则化方法,强制同一身份在不同时间分辨率下的特征保持一致性。我们在四个主流基准数据集(iLIDS-VID、PRID2011、MARS 和 DukeMTMC-VideoReID)上进行了广泛实验,结果表明所提方法在各项指标上均达到具有竞争力的性能,充分验证了其有效性。相关代码已开源,地址为:https://github.com/weleen/AGRL.pytorch。
代码仓库
weleen/AGRL.pytorch
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| person-re-identification-on-ilids-vid | AGRL | Rank-1: 83.7 Rank-10: 95.4 Rank-20: 99.5 |
| person-re-identification-on-mars | AGRL | Rank-1: 89.8 Rank-10: 96.1 Rank-20: 97.6 mAP: 81.1 |
| person-re-identification-on-prid2011 | AGRL | Rank-1: 93.1 Rank-10: 98.7 Rank-20: 99.8 |