
摘要
我们提出了一种名为 HybridPose 的新型 6D 物体位姿估计方法。HybridPose 采用一种混合中间表示(hybrid intermediate representation),用于在输入图像中表达多种几何信息,包括关键点、边缘向量以及对称对应关系。相较于单一表示方式,该混合表示机制使得位姿回归能够在某一类预测结果不准确时(例如因遮挡导致),依然能够利用更多样化的特征进行推断。HybridPose 所采用的不同中间表示均可由同一个简洁的神经网络统一预测,且预测结果中的异常值可通过一个鲁棒的回归模块进行有效过滤。与当前最先进的位姿估计方法相比,HybridPose 在运行速度和精度方面均表现出相当的性能。例如,在 Occlusion Linemod 数据集上,该方法实现了 30 fps 的预测速度,并达到 47.5% 的平均 ADD(-S) 精度,达到了当前最优水平。HybridPose 的开源实现已发布于 https://github.com/chensong1995/HybridPose。
代码仓库
chensong1995/HybridPose
官方
pytorch
GitHub 中提及
hz-ants/HybridPose
pytorch
GitHub 中提及
chronoshell/copyydscsv
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 6d-pose-estimation-on-linemod | HybridPose | Accuracy (ADD): 94.5% Mean ADD: 91.3 |
| 6d-pose-estimation-using-rgb-on-occlusion | HybridPose | Mean ADD: 47.5 |