
摘要
仅使用RGB图像估计物体的六自由度(6D)姿态仍然具有挑战性,主要原因是遮挡和对称性等问题。此外,没有专业知识或专用扫描设备的情况下,构建具有精确纹理的3D模型也十分困难。为了解决这些问题,我们提出了一种新的姿态估计方法——Pix2Pose,该方法能够在无需纹理模型的情况下预测每个物体像素的3D坐标。设计了一种自编码器架构来估计每个像素的3D坐标及其预期误差。这些逐像素的预测随后在多个阶段中用于形成2D-3D对应关系,直接通过带有RANSAC迭代的PnP算法计算姿态。我们的方法通过利用生成对抗训练领域的最新成果,能够精确恢复被遮挡的部分,从而对遮挡具有鲁棒性。此外,还提出了一种新的损失函数——变换器损失(Transformer Loss),以处理对称物体的问题,通过引导预测到最近的对称姿态来实现这一目标。在包含对称和被遮挡物体的三个不同基准数据集上的评估结果表明,我们的方法仅使用RGB图像即可超越现有最先进的技术。
代码仓库
GH3927/Pix2Pix-applied-to-cranes
tf
GitHub 中提及
hz-ants/Pix2Pose
tf
GitHub 中提及
kirumang/Pix2Pose
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 6d-pose-estimation-on-linemod | Pix2Pose | Mean ADD: 32 |
| 6d-pose-estimation-on-t-less | Pix2Pose without ICP | Recall (VSD): 29.5 |