3 个月前

面向自动驾驶的单视角与多视角深度自适应融合

面向自动驾驶的单视角与多视角深度自适应融合

摘要

多视角深度估计在多个基准测试中已取得令人瞩目的性能表现。然而,当前绝大多数多视角系统均依赖于理想的已知相机位姿,而在许多真实场景(如自动驾驶)中,此类理想位姿往往无法获取。为此,本文提出了一种新的鲁棒性评估基准,用于在多种噪声位姿条件下评估深度估计系统的性能。令人惊讶的是,我们发现现有的多视角深度估计方法,以及单视角与多视角融合方法,在面对噪声位姿时均会失效。为应对这一挑战,本文提出一种单视角与多视角融合的深度估计系统,该系统能够自适应地融合高置信度的单视角与多视角结果,从而在保证精度的同时提升系统的鲁棒性。系统中的自适应融合模块通过基于包裹置信度图(wrapping confidence map)动态选择两个分支中的高置信区域,实现精细化融合。因此,在面对无纹理场景、相机标定误差、动态物体以及其他退化或挑战性条件时,系统能够自动选择更为可靠的分支进行输出。实验结果表明,该方法在鲁棒性测试中显著优于当前最先进的多视角及融合类方法。此外,在相机位姿准确的前提下,该方法在具有挑战性的基准数据集(KITTI 和 DDAD)上也达到了当前最优的性能表现。项目主页:https://github.com/Junda24/AFNet/

代码仓库

junda24/afnet
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
monocular-depth-estimation-on-ddadAFNet
RMSE: 4.60
RMSE log: 0.154
Sq Rel: 0.979
absolute relative error: 0.088
monocular-depth-estimation-on-kitti-eigenAFNet
Delta u003c 1.25: 0.980
Delta u003c 1.25^2: 0.997
Delta u003c 1.25^3: 0.999
RMSE: 1.712
RMSE log: 0.069
Sq Rel: 0.132
absolute relative error: 0.044

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
面向自动驾驶的单视角与多视角深度自适应融合 | 论文 | HyperAI超神经