
摘要
近年来,重识别(ReID)任务在计算机视觉领域日益受到关注,这得益于其广泛的应用场景以及零样本学习(zero-shot learning)的特性。本文提出了一种计算高效的细粒度重识别模型——FGReID,该模型是首批在保持训练参数数量极少的前提下,统一处理图像与视频重识别任务的模型之一。FGReID充分利用基于视频的预训练策略与空间特征注意力机制,在视频与图像重识别任务上均显著提升了性能。在MARS、iLIDS-VID和PRID-2011等主流视频行人重识别基准测试中,FGReID取得了当前最优(SOTA)的性能表现。通过移除时间池化操作,该模型可进一步转化为高效的图像重识别模型,在CUHK01与Market1501两个主流图像行人重识别基准上也超越了现有最优方法。此外,FGReID在车辆重识别数据集VeRi上也达到了接近SOTA的性能,充分展示了其良好的泛化能力。本文还进行了消融实验,系统分析了影响模型在ReID任务中表现的关键因素。最后,文章探讨了ReID技术可能引发的伦理困境,特别是其潜在的滥用风险。本研究的代码已公开发布于:https://github.com/ppriyank/Fine-grained-ReIdentification。
代码仓库
ppriyank/Fine-grained-Re-Identification
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| person-re-identification-on-ilids-vid | FGReID | Rank-1: 91.5 Rank-10: 99.8 Rank-20: 100 Rank-5: 99.2 |
| person-re-identification-on-mars | FGReID | Rank-1: 89.6 Rank-20: 98.8 Rank-5: 97.0 mAP: 86.2 |
| person-re-identification-on-prid2011 | FGReID | Rank-1: 96.1 Rank-10: 99.9 Rank-20: 100 Rank-5: 99.1 |