
摘要
与基于图像的方法不同,基于点云的场所识别检索问题一直未被充分探索和解决。这主要是因为从点云中提取局部特征描述符并将其编码为全局描述符以完成检索任务存在较大难度。在本文中,我们提出了PointNetVLAD,利用深度网络的最新进展来解决基于点云的场所识别检索问题。具体而言,我们的PointNetVLAD是对现有PointNet和NetVLAD的组合与改进,允许端到端训练和推理,从而从给定的3D点云中提取全局描述符。此外,我们提出了一种“懒三元组和四元组”损失函数(lazy triplet and quadruplet loss functions),能够生成更具区分性和泛化的全局描述符以应对检索任务。我们创建了用于基于点云的场所识别检索的基准数据集,并在这些数据集上的实验结果证明了我们提出的PointNetVLAD的有效性。我们的代码及基准数据集下载链接可在项目网站上获取:http://github.com/mikacuy/pointnetvlad/
代码仓库
csiro-robotics/incloud
pytorch
GitHub 中提及
juanjo-cabrera/minkunext
pytorch
GitHub 中提及
csiro-robotics/uncertainty-lpr
pytorch
GitHub 中提及
mikacuy/pointnetvlad
官方
tf
GitHub 中提及
jac99/minkloc3dv2
pytorch
GitHub 中提及
LeegoChen/PTC-Net
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-place-recognition-on-cs-campus3d | PointNetVLAD | AR@1: 35.57 AR@1 cross-source: 19.07 AR@1%: 41.46 AR@1% cross-source: 43.53 |
| 3d-place-recognition-on-oxford-robotcar | pointnetvlad | AR@1%: 80.3 |
| visual-localization-on-oxford-radar-robotcar | PointNetVLAD | Mean Translation Error: 28.48 |
| visual-place-recognition-on-kitti360pose | PointNetVLAD | Localization Recall@1 : 0.21 |