
摘要
从彩色图像中重建高精度、高保真度的三维人体手部模型,在人机交互与虚拟现实应用中实现逼真虚拟手的复现方面具有核心作用。然而,现有方法由于手部姿态多样以及严重遮挡等问题,其重建结果在准确性和保真度方面仍显不足。为此,本文提出一种I2UV-HandNet模型,用于实现精准的手部姿态与形状估计,并完成三维手部的超分辨率重建。具体而言,我们首次提出基于UV坐标的三维手部形状表示方法。为从RGB图像中恢复三维手部网格,我们设计了AffineNet,采用图像到图像的转换方式,从输入图像预测出UV坐标映射图。为进一步提升形状的保真度,我们引入一个额外的SRNet,将AffineNet输出的低分辨率UV图转换为高分辨率版本。本文首次验证了基于UV的手部形状表示方法的表征能力。实验结果表明,所提出的方法在多个具有挑战性的基准测试中均达到了当前最优性能。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-hand-pose-estimation-on-freihand | I2UV-HandNet | PA-F@15mm: 0.977 PA-F@5mm: 0.707 PA-MPJPE: 6.7 PA-MPVPE: 6.9 |
| 3d-hand-pose-estimation-on-ho-3d | I2UV-HandNet | AUC_J: 0.804 AUC_V: 0.799 F@15mm: 0.943 F@5mm: 0.500 PA-MPJPE (mm): 9.9 PA-MPVPE: 10.1 |