3 个月前

Pose2Mesh:用于从2D人体姿态恢复3D人体姿态与网格的图卷积网络

Pose2Mesh:用于从2D人体姿态恢复3D人体姿态与网格的图卷积网络

摘要

近年来,基于深度学习的三维人体姿态与网格重建方法大多从输入图像中回归人体网格模型(如SMPL和MANO)的姿态与形状参数。这类方法存在两个主要缺陷:其一,由于训练数据通常来自受控环境(如实验室),而测试数据则来自真实场景(in-the-wild),导致图像外观域存在显著差异,即“外观域差距”问题;其二,姿态参数的估计面临挑战,主要源于三维旋转表示所带来的固有难题。为克服上述问题,本文提出Pose2Mesh——一种基于图卷积神经网络(GraphCNN)的新方法,直接从二维人体姿态预测三维人体网格顶点的坐标。以二维人体姿态作为输入,不仅能够提供关键的人体关节运动信息,而且二维姿态在不同域之间具有相对一致的几何特性,有效缓解了域差异问题。此外,所提出的系统通过分阶段(粗到精)的图卷积网络结构,充分挖掘网格拓扑结构信息,同时规避了三维旋转表示带来的复杂性。实验结果表明,Pose2Mesh在多个基准数据集上均显著优于现有的三维人体姿态与网格重建方法。代码已开源,详见:https://github.com/hongsukchoi/Pose2Mesh_RELEASE。

代码仓库

hongsukchoi/Pose2Mesh_RELEASE
官方
pytorch
GitHub 中提及
karanshahgithub/CS256-AI-Pose2Mesh
pytorch
GitHub 中提及

基准测试

基准方法指标
3d-hand-pose-estimation-on-freihandPose2Mesh
PA-F@15mm: 0.969
PA-F@5mm: 0.674
PA-MPJPE: 7.7
PA-MPVPE: 7.8
3d-hand-pose-estimation-on-ho-3dPose2Mesh
AUC_J: 0.754
AUC_V: 0.749
F@15mm: 0.909
F@5mm: 0.441
PA-MPJPE (mm): 12.5
PA-MPVPE: 12.7
3d-human-pose-estimation-on-3dpwPose2Mesh
Acceleration Error: 22.6
MPJPE: 88.9
MPVPE: 106.3
PA-MPJPE: 58.3
3d-human-pose-estimation-on-human36mPose2Mesh
Average MPJPE (mm): 64.9
PA-MPJPE: 48.7

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
Pose2Mesh:用于从2D人体姿态恢复3D人体姿态与网格的图卷积网络 | 论文 | HyperAI超神经