3 个月前

基于参数高效的三维空间人员再识别

基于参数高效的三维空间人员再识别

摘要

人类生活在一个三维世界中,然而现有的行人重识别(re-id)研究大多局限于二维空间中的语义表征学习,这在本质上限制了对行人的深入理解。为克服这一局限,本文探索了人体三维结构的先验知识。具体而言,我们首先将二维图像投影至三维空间,并提出一种新型的参数高效型全尺度图网络(Omni-scale Graph Network, OG-Net),直接从三维点云中学习行人表征。OG-Net能够有效利用稀疏三维点所提供的局部信息,并以一致的方式融合结构与外观信息。借助三维几何信息,我们得以学习到一种新型的深度重识别特征,该特征不受尺度变化、视角差异等噪声因素的干扰。据我们所知,本工作是首次尝试在三维空间中进行行人重识别的研究。通过大量实验验证,所提方法具备以下优势:(1)显著降低了传统二维空间中的匹配难度;(2)充分挖掘了二维外观与三维结构之间的互补信息;(3)在四个大规模行人重识别数据集上以极少参数量实现了具有竞争力的性能;(4)对未见数据集展现出良好的可扩展性。相关代码、模型及生成的三维人体数据已公开发布于:https://github.com/layumi/person-reid-3d。

代码仓库

layumi/person-reid-3d
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
3d-point-cloud-classification-on-modelnet40OG-Net-Small
Mean Accuracy: 90.5
Number of params: 1.22M
Overall Accuracy: 93.3
person-re-identification-on-dukemtmc-reidOGNet
Rank-1: 76.66
mAP: 57.89
person-re-identification-on-dukemtmc-reid-1OGNet
Rank-1: 41.4
mAP: 17.2
person-re-identification-on-market-1501OGNet
Rank-1: 87.74
mAP: 69.52
person-re-identification-on-market-1501-1OGNet
Rank-1: 31.3
mAP: 16.3
person-re-identification-on-msmt17OGNet
Rank-1: 47.71
mAP: 23.01
unsupervised-domain-adaptation-on-duke-toOGNet
mAP: 14.7
rank-1: 36.4
rank-10: -
rank-5: -
unsupervised-domain-adaptation-on-duke-to-1OG-Net
mAP: 1.9
rank-1: 6.8
unsupervised-domain-adaptation-on-market-toOG-Net
mAP: 13.7
rank-1: 26.4
rank-10: -
rank-5: -
unsupervised-domain-adaptation-on-market-to-1OG-Net
mAP: 1.7
rank-1: 5.9
unsupervised-person-re-identification-onOGNet
Rank-1: 26.4
mAP: 13.7
unsupervised-person-re-identification-on-1OGNet
Rank-1: 36.4
mAP: 14.7
unsupervised-person-re-identification-on-2OG-Net
Rank-1: 5.9
mAP: 1.7
unsupervised-person-re-identification-on-3OGNet
Rank-1: 6.8
mAP: 1.9
unsupervised-person-re-identification-on-6OGNet
Rank-1: 35.3
mAP: 19.3
unsupervised-person-re-identification-on-7OG-Net
Rank-1: 40.1
mAP: 17.6

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于参数高效的三维空间人员再识别 | 论文 | HyperAI超神经