GuanTianrui ; MuthuselvamAswath ; HooverMontana ; WangXijun ; LiangJing ; SathyamoorthyAdarsh Jagan ; ConoverDamon ; ManochaDinesh

摘要
我们介绍了CrossLoc3D,这是一种新颖的3D场景识别方法,能够在跨源设置中解决大规模点匹配问题。跨源点云数据指的是由不同精度的深度传感器或从不同距离和视角捕获的点集。我们针对开发能够弥补不同源捕获点之间表示差距的3D场景识别方法所面临的挑战进行了研究。我们的方法通过利用多尺度特征并选择与最显著特征相对应的卷积核大小来处理跨源数据。受扩散模型的启发,我们的方法采用了一种新的迭代优化过程,逐步将来自不同源的嵌入空间转换到一个单一的标准空间,以实现更好的度量学习。此外,我们还发布了CS-Campus3D,这是首个包含空中和地面LiDAR扫描点云数据的3D空地跨源数据集。CS-Campus3D中的点云存在表示差距以及其他特性,如不同的视图、点密度和噪声模式。我们展示了CrossLoc3D算法在我们的CS-Campus3D基准测试中,最高1平均召回率提高了4.74%至15.37%,并且在Oxford RobotCar数据集上的性能与最先进的3D场景识别方法相当。代码和CS-Campus3D基准测试将在github.com/rayguan97/crossloc3d上提供。
代码仓库
rayguan97/crossloc3d
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-place-recognition-on-cs-campus3d | CrossLoc3D | AR@1: 74.12 AR@1 cross-source: 70.73 AR@1%: 83.04 AR@1% cross-source: 85.74 |
| 3d-place-recognition-on-oxford-robotcar | CrossLoc3D | AR@1: 94.36 AR@1%: 98.59 |