
摘要
解决换衣人物再识别(re-id)的关键在于提取与衣物无关的特征,例如面部、发型、体型和步态。目前大多数研究主要集中在从多模态信息(如轮廓和素描)中建模体型,但未能充分利用原始RGB图像中的与衣物无关的信息。本文提出了一种基于衣物的对抗损失(Clothes-based Adversarial Loss, CAL),通过惩罚re-id模型对衣物的预测能力来从原始RGB图像中挖掘与衣物无关的特征。大量实验表明,仅使用RGB图像,CAL在广泛使用的换衣人物再识别基准上超越了所有现有方法。此外,与静态图像相比,视频包含更丰富的外观信息和额外的时间信息,可以用于建模适当的时空模式以辅助换衣再识别。由于目前没有公开可用的换衣视频再识别数据集,我们贡献了一个新的数据集,命名为CCVID,并展示了在建模时空信息方面存在很大的改进空间。代码和新数据集可在以下链接获取:https://github.com/guxinqian/Simple-CCReID。
代码仓库
guxinqian/simple-ccreid
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| multiview-gait-recognition-on-casia-b | CAL (RGB), AP3DNLResNet50 | Accuracy (Cross-View, Avg): 97.3 BG#1-2: 99.8 CL#1-2: 92.3 NM#5-6 : 99.9 |
| person-re-identification-on-ccvid | CAL | Rank-1: 81.7 mAP: 79.6 |
| person-re-identification-on-ltcc | CAL | Rank-1: 40.1 mAP: 18.0 |
| person-re-identification-on-prcc | CAL | Rank-1: 55.2 mAP: 55.8 |
| person-re-identification-on-vc-clothes | CAL | Rank-1: 85.8 mAP: 79.8 |