
摘要
作为实例级识别问题,行人重识别(ReID)依赖于判别特征,这些特征不仅能够捕捉不同的空间尺度,还能封装多种尺度的任意组合。我们将同质和异质尺度的特征称为全尺度特征(omni-scale features)。本文设计了一种新型的深度ReID卷积神经网络,命名为全尺度网络(Omni-Scale Network, OSNet),用于全尺度特征学习。通过设计一个由多个卷积流组成的残差块,每个流检测特定尺度的特征来实现这一目标。重要的是,引入了一种新颖的统一聚合门机制,可以动态地根据输入依赖的通道权重融合多尺度特征。为了高效地学习空间-通道相关性并避免过拟合,构建模块采用了逐点卷积和深度可分离卷积。通过逐层堆叠这种模块,我们的OSNet极其轻量级,并且可以在现有的ReID基准数据集上从头开始训练。尽管模型体积较小,OSNet在六个行人重识别数据集上仍取得了最先进的性能,明显优于大多数大型模型。代码和模型可在以下网址获取:\url{https://github.com/KaiyangZhou/deep-person-reid}。
代码仓库
jacobtyo/mudd
pytorch
GitHub 中提及
openvinotoolkit/deep-object-reid
pytorch
GitHub 中提及
MatthewAbugeja/osnet
pytorch
GitHub 中提及
mikel-brostrom/yolov7_strongsort_osnet
pytorch
GitHub 中提及
tomektarabasz/deep_person_reid
pytorch
GitHub 中提及
mikel-brostrom/boxmot
pytorch
GitHub 中提及
hukefei/deep-person-reid-master
pytorch
GitHub 中提及
RodMech/OSNet-IBN1-Lite
pytorch
GitHub 中提及
KaiyangZhou/deep-person-reid
官方
pytorch
GitHub 中提及
InnovArul/vidreid_cosegmentation
pytorch
GitHub 中提及
LeDuySon/torchreid_uet_lab
pytorch
GitHub 中提及
donnjonn/Masterproef
pytorch
GitHub 中提及
Yanghojun/Custom_yolov5_pytorch
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| person-re-identification-on-cuhk03 | OSNet | MAP: 67.8 |
| person-re-identification-on-cuhk03-detected | OSNet (ICCV'19) | MAP: 67.8 Rank-1: 72.3 |
| person-re-identification-on-dukemtmc-reid | OSNet (ICCV'19) | Rank-1: 88.6 mAP: 73.5 |
| person-re-identification-on-market-1501 | OSNet | Rank-1: 94.8 mAP: 84.9 |
| person-re-identification-on-market-1501-c | OS-Net | Rank-1: 30.94 mAP: 10.37 mINP: 0.23 |
| person-re-identification-on-msmt17 | OSNet | Rank-1: 78.7 mAP: 52.9 |
| person-re-identification-on-msmt17-c | OS-Net | Rank-1: 28.51 mAP: 7.86 mINP: 0.08 |