
摘要
受体素化3D姿态估计成功应用的启发,一些近期的人体网格估计方法提出将3D骨骼作为中间表示,进而利用网格拓扑结构回归出密集的3D网格。然而,在提取骨骼的过程中会丢失体形信息,导致性能受限。先进的动作捕捉系统通过在人体表面布置密集的物理标记点来解决该问题,从而能够从非刚性运动中恢复出逼真的网格。但这类方法无法应用于无标记的自然图像。为此,本文提出一种新型中间表示——虚拟标记(virtual markers),该方法基于大规模动作捕捉数据,以生成式方式学习人体表面64个关键点位置,其效果模拟了物理标记的作用。这些虚拟标记能够准确地从自然图像中检测到,并可通过简单的插值操作重建出具有真实体形的完整网格。在三个公开数据集上的实验表明,所提方法显著优于现有最先进方法,尤其在包含多样化体形的SURREAL数据集上,性能提升尤为显著。代码已开源,地址为:https://github.com/ShirleyMaxx/VirtualMarker。
代码仓库
ShirleyMaxx/VirtualMarker
官方
pytorch
GitHub 中提及
shirleymaxx/vmarker-pro
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-human-pose-estimation-on-3dpw | VirtualMarker | MPJPE: 67.5 MPVPE: 77.9 PA-MPJPE: 41.3 |
| 3d-human-pose-estimation-on-human36m | VirtualMarker | Average MPJPE (mm): 47.3 PA-MPJPE: 32 |
| 3d-human-pose-estimation-on-surreal-1 | VirtualMarker | MPJPE: 36.9 PA-MPJPE: 28.9 PVE: 44.7 |