
摘要
无需显式使用面部识别技术,仅通过多摄像头视角识别同一人,正受到学术界与产业界的广泛关注。当前主流解决方案依赖于基于注意力机制的神经网络模型。本文提出一种名为“Attention and CL loss”的新型损失函数,该方法在基于时序注意力机制的神经网络基础上,融合了中心损失(Center Loss)与在线软挖掘(Online Soft Mining, OSM)损失,作为注意力损失的补充。通过结合一系列训练技巧(bag-of-tricks),所提出的损失函数在通用行人重识别(Re-ID)数据集MARS和PRID 2011上均超越了现有最先进方法。相关源代码已公开发布于GitHub。
代码仓库
ppriyank/Video-Person-Re-ID-Fantastic-Techniques-and-Where-to-Find-Them
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| person-re-identification-on-mars | B-BOT + Attention and CL loss* | mAP: 82.9 |
| person-re-identification-on-mars | B-BOT + Attention and CL loss | Rank-1: 88.6 |
| person-re-identification-on-mars | B-BOT + OSM + CL Centers* (Re-rank) | mAP: 88.5 |
| person-re-identification-on-prid2011 | B-BOT + Attention and CL loss* | Rank-1: 96.6 |