
摘要
人类的手部具有高度的灵活性和多功能性,能够熟练地操作物体。从单目相机同时估计手部和被操纵物体的三维姿态是一项具有挑战性的任务,因为频繁出现的遮挡现象使得这一过程变得复杂。因此,现有的方法通常依赖于中间的三维形状表示来提高性能。这些表示通常是显式的,例如三维点云或网格(mesh),从而在中间手部姿态估计的直接周围提供信息。为了解决这一问题,我们引入了HOISDF,这是一种基于符号距离场(Signed Distance Field, SDF)引导的手-物姿态估计网络,该网络通过联合利用手部和物体的SDF来提供整个重建体积内的全局隐式表示。具体而言,SDF的作用有三个方面:为视觉编码器提供隐式形状信息;帮助编码手-物交互;通过基于SDF的采样和增强特征表示来指导手部和物体的姿态回归。我们展示了HOISDF在手-物姿态估计基准测试(DexYCB和HO3Dv2)中取得了最先进的结果。代码可在https://github.com/amathislab/HOISDF 获取。
代码仓库
amathislab/hoisdf
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-hand-pose-estimation-on-dexycb | HOISDF | Average MPJPE (mm): 10.1 MPVPE: 9.9 PA-MPVPE: 4.9 PA-VAUC: 90.2 Procrustes-Aligned MPJPE: 5.13 VAUC: 80.5 |
| 3d-hand-pose-estimation-on-ho-3d | HOISDF | PA-MPJPE (mm): 9.2 |
| hand-object-pose-on-dexycb | HOISDF | ADD-S: 13.3 Average MPJPE (mm): 10.1 MCE: 27.4 OCE: 18.4 Procrustes-Aligned MPJPE: 5.31 |
| hand-object-pose-on-ho-3d | HOISDF | ADD-S: 14.4 Average MPJPE (mm): 19.0 OME: 35.5 PA-MPJPE: 9.2 ST-MPJPE: 18.3 |