
摘要
基于点云的地点识别仍然是一个开放问题,因为从原始3D点云中提取局部特征并生成全局描述符存在较大难度,而在大规模动态环境中这一问题更加突出。本文提出了一种新颖的深度神经网络,命名为LPD-Net(大规模地点描述网络),该网络可以从原始3D点云中提取具有区分性和泛化的全局描述符。我们设计了两个模块:自适应局部特征提取模块和基于图的邻域聚合模块,这两个模块有助于在大规模点云中提取局部结构并揭示局部特征的空间分布,实现端到端的处理。我们将提出的全局描述符应用于解决基于点云的检索任务,以实现大规模地点识别。实验结果表明,我们的LPD-Net显著优于PointNetVLAD,并达到了当前最佳水平。此外,我们还将LPD-Net与基于视觉的方法进行了比较,展示了其在不同天气和光照条件下的鲁棒性。
代码仓库
qiaozhijian/LPD-Net-Pytorch
tf
GitHub 中提及
Suoivy/LPD-net
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-place-recognition-on-cs-campus3d | LPD-Net | AR@1: 45.94 AR@1 cross-source: 11.99 AR@1%: 59.49 AR@1% cross-source: 40.70 |
| 3d-place-recognition-on-oxford-robotcar | LPD-Net | AR@1: 86.3 AR@1%: 94.9 |