3 个月前

基于视觉Transformer的自监督单目深度估计效率探索

基于视觉Transformer的自监督单目深度估计效率探索

摘要

深度估计是生成深度图的关键任务,而深度图是增强现实(AR)及其他应用中最核心的组成部分之一。然而,当前广泛应用于AR设备和智能手机中的硬件仅配备稀疏深度传感器,且其真实深度数据的获取方式各不相同。因此,为确保下游AR任务的性能,只能依赖基于相机信息的自监督学习方法,可靠地训练深度估计模型。以往相关研究多集中于纯卷积架构的自监督模型,未能充分考虑全局空间上下文信息。本文提出VTDepth,一种基于视觉Transformer架构的自监督单目深度估计模型,旨在解决全局空间上下文建模的问题。我们系统比较了多种卷积与Transformer架构的组合方式在自监督深度估计中的表现,结果表明,性能最优的模型结构为基于Transformer的编码器配合卷积解码器。实验结果表明,VTDepth在自监督深度估计任务中具有显著效率。所提出的模型在NYUv2和KITTI数据集上的自监督学习任务中均达到了当前最优(state-of-the-art)性能。相关代码已开源,地址为:https://github.com/ahbpp/VTDepth。

基准测试

基准方法指标
monocular-depth-estimation-on-kitti-eigen-1VTDepthB2 (stereo supervision)
Delta u003c 1.25: 0.904
Delta u003c 1.25^2: 0.965
Delta u003c 1.25^3: 0.983
RMSE: 4.439
RMSE log: 0.178
Sq Rel: 0.743
absolute relative error: 0.099
monocular-depth-estimation-on-kitti-eigen-1VTDepthB2 (monocular supervision)
Delta u003c 1.25: 0.893
Delta u003c 1.25^2: 0.964
Delta u003c 1.25^3: 0.983
RMSE: 4.530
RMSE log: 0.182
Sq Rel: 0.762
absolute relative error: 0.105

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于视觉Transformer的自监督单目深度估计效率探索 | 论文 | HyperAI超神经