4 个月前

基于单幅图像的多人相干重建

基于单幅图像的多人相干重建

摘要

在本研究中,我们致力于解决从单张图像中进行多人三维姿态估计的问题。传统的自上而下的回归方法通常首先检测出所有的人体,然后独立地重建每一个人。然而,这种预测方法存在结果不一致的问题,例如人体之间的相互穿透和场景中人物深度顺序的不一致。我们的目标是训练一个单一网络,使其能够避免这些问题并生成场景中所有人物的连贯三维重建。为此,一个关键的设计选择是在我们的自上而下框架中引入SMPL参数化人体模型(SMPL parametric body model),这使得我们可以使用两种新颖的损失函数。首先,基于距离场的碰撞损失(distance field-based collision loss)用于惩罚重建人物之间的相互穿透。其次,深度排序感知损失(depth ordering-aware loss)考虑了遮挡问题,并促进了人物深度顺序的一致性,从而使得渲染结果与注释的实例分割相匹配。即使图像没有显式的三维注释,这种方法也能为网络提供深度监督信号。实验表明,我们的方法在标准三维姿态基准测试中优于先前的方法,而我们提出的损失函数则能够在自然图像中实现更加连贯的重建。项目网站包含视频、结果和代码,网址为:https://jiangwenpl.github.io/multiperson

代码仓库

JiangWenPL/multiperson
pytorch
GitHub 中提及

基准测试

基准方法指标
3d-depth-estimation-on-relative-humanCRMH
PCDR: 54.83
PCDR-Adult: 55.47
PCDR-Baby: 34.74
PCDR-Kid: 48.37
PCDR-Teen: 59.11
mPCDK: 0.781
3d-human-reconstruction-on-agora-1PIXIE
B-MPJPE: 140.3
B-MVE: 142.2
B-NMJE: 171.1
B-NMVE: 173.4
F-MPJPE: 54.5
F-MVE: 50.2
FB-MPJPE: 189.3
FB-MVE: 191.8
FB-NMJE: 230.9
FB-NMVE: 233.9
LH/RH-MPJPE: 46.4/46.0
LH/RH-MVE: 49.5/49.0

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于单幅图像的多人相干重建 | 论文 | HyperAI超神经