4 个月前

基于视觉惯性里程计的无监督深度补全

基于视觉惯性里程计的无监督深度补全

摘要

我们提出了一种基于相机运动和通过视觉惯性里程计系统估计的稀疏深度来推断密集深度的方法。与使用激光雷达或结构光传感器生成的点云场景不同,我们的方法仅有几百到几千个点,不足以描述场景的拓扑结构。该方法首先构建场景的部分平面支架,然后利用图像和这些稀疏点来推断密集深度。我们采用了一种预测性的跨模态准则,类似于“自我监督”,通过测量时间上的光度一致性、前后姿态的一致性和与稀疏点云的几何兼容性来进行评估。此外,我们发布了首个视觉惯性+深度数据集,希望这能促进对结合视觉和惯性传感器互补优势的进一步研究。为了与先前的工作进行比较,我们采用了无监督的KITTI深度补全基准,并在该基准上展示了最先进的性能。代码可在以下地址获取:https://github.com/alexklwong/unsupervised-depth-completion-visual-inertial-odometry。

基准测试

基准方法指标
depth-completion-on-kitti-depth-completionVOICED
MAE: 299.41
RMSE: 1169.97
Runtime [ms]: 20
iMAE: 1.20
iRMSE: 3.56
depth-completion-on-voidVOICED
MAE: 85.05
RMSE: 169.79
iMAE: 48.92
iRMSE: 104.02

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于视觉惯性里程计的无监督深度补全 | 论文 | HyperAI超神经