
摘要
我们提出了一种单次检测方法,能够在RGB图像中同时检测物体并预测其6D姿态,而无需多个阶段或检查多种假设。与最近提出的仅能预测近似6D姿态且需要后续精炼的单次检测技术(Kehl等人,ICCV'17)不同,我们的方法足够准确,无需额外的后处理步骤。因此,该方法速度更快——在Titan X (Pascal) GPU上可达到50帧每秒——更适合实时处理。我们方法的关键组件是一种受YOLO网络设计启发的新CNN架构,该架构直接预测物体3D边界框投影顶点的2D图像位置。随后,利用PnP算法估计物体的6D姿态。在LINEMOD和OCCLUSION数据集上的单个物体和多个物体姿态估计任务中,当所有方法均不使用后处理时,我们的方法显著优于其他最近基于CNN的方法。虽然通过后处理中的姿态精炼步骤可以提高现有方法的精度,但这些方法的速度通常不超过10帧每秒,远低于我们的方法。
代码仓库
hz-ants/obtain-an-object-mesh-and-create-labels
pytorch
GitHub 中提及
Yongjjun/singleshotpose
pytorch
GitHub 中提及
hz-ants/yolo-6d
pytorch
GitHub 中提及
Microsoft/singleshotpose
pytorch
GitHub 中提及
a2824256/singleshotpose_imp
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 6d-pose-estimation-on-linemod | Single-shot Deep CNN | Accuracy: 90.37% Mean ADD: 55.95 Mean IoU: 99.92 |
| 6d-pose-estimation-on-occlusion | Single-shot deep CNN | MAP: 0.48 |