
摘要
激光雷达重定位在许多领域中发挥着关键作用,包括机器人学、自动驾驶和计算机视觉。基于激光雷达的数据库检索通常会产生较高的计算存储成本,如果数据库过于稀疏,还可能导致全局姿态估计不准确。另一方面,姿态回归方法以图像或点云作为输入,通过端到端的方式直接回归全局姿态。这些方法不进行数据库匹配,因此比检索技术更具计算效率。我们提出了一种新的激光雷达姿态回归模型——HypLiLoc。该模型使用两个分支骨干网络分别提取3D特征和2D投影特征。我们在欧几里得空间和双曲空间中考虑了多模态特征融合,以获得更有效的特征表示。实验结果表明,HypLiLoc在室外和室内数据集上均达到了最先进的性能。我们还对框架设计进行了广泛的消融研究,证明了多模态特征提取和多空间嵌入的有效性。我们的代码已发布在:https://github.com/sijieaaa/HypLiLoc
代码仓库
sijieaaa/hypliloc
官方
pytorch
GitHub 中提及
sijieaaa/robustloc
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| lidar-absolute-pose-regression-on-oxford-2 | HypLiLoc | Mean Translation/Rotation Error (m/degree): 6.00 / 1.31 |
| lidar-absolute-pose-regression-on-oxford-3 | HypLiLoc | Mean Translation/Rotation Error (m/degree): 6.88 / 1.09 |
| lidar-absolute-pose-regression-on-oxford-4 | HypLiLoc | Mean Translation/Rotation Error (m/degree): 5.82 / 0.97 |
| lidar-absolute-pose-regression-on-oxford-5 | HypLiLoc | Mean Translation/Rotation Error (m/degree): 3.45 / 0.84 |
| lidar-absolute-pose-regression-on-vreloc-seq | HypLiLoc | Median Translation/Rotation Error (m/degree): 0.09 / 2.52 |
| lidar-absolute-pose-regression-on-vreloc-seq-1 | HypLiLoc | Median Translation/Rotation Error (m/degree): 0.08 / 2.58 |
| lidar-absolute-pose-regression-on-vreloc-seq-2 | HypLiLoc | Median Translation/Rotation Error (m/degree): 0.13 / 2.55 |
| lidar-absolute-pose-regression-on-vreloc-seq-3 | HypLiLoc | Median Translation/Rotation Error (m/degree): 0.09 / 2.34 |
| visual-localization-on-oxford-radar-robotcar | HypLiLoc | Mean Translation Error: 6.00 |