
摘要
我们提出了一种简单但高效的方法,用于学习具有区分性的3D局部深度描述子(DIPs),该描述子可在无需初始对齐的情况下实现点云配准。通过提取点云局部区域,并基于其估计的局部参考系进行规范化的预处理,再利用基于PointNet的深度神经网络将其编码为具有旋转不变性的紧凑描述子。由于DIPs是通过端到端的方式,从局部随机采样的点云数据中学习得到的,因此能够有效泛化于不同传感器模态之间。由于DIPs仅编码局部几何信息,因而对场景杂波、遮挡及缺失区域具有较强的鲁棒性。我们在多个室内与室外数据集上对DIPs进行了评估与对比,这些数据集包含由不同传感器重建的点云。实验结果表明:(i)在RGB-D室内场景(3DMatch数据集)上,DIPs达到与当前最先进方法相当的性能;(ii)在激光扫描的室外场景(ETH数据集)上,DIPs显著优于现有最先进方法;(iii)DIPs可有效泛化至由Android ARCore视觉SLAM系统重建的室内场景。源代码地址:https://github.com/fabiopoiesi/dip。
代码仓库
fabiopoiesi/dip
官方
pytorch
GitHub 中提及
fabiopoiesi/gedi
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| point-cloud-registration-on-3dmatch-benchmark | DIP | Feature Matching Recall: 94.8 |
| point-cloud-registration-on-eth-trained-on | DIP | Feature Matching Recall: 0.928 Recall (30cm, 5 degrees): 62.41 |
| point-cloud-registration-on-fpv1 | DIP | RRE (degrees): 4.058 RTE (cm): 2.052 Recall (3cm, 10 degrees): 54.81 |
| point-cloud-registration-on-kitti | DIP | Success Rate: 97.30 |
| point-cloud-registration-on-kitti-trained-on | DIP | Success Rate: 93.51 |