3 个月前

MonoViT:基于视觉Transformer的自监督单目深度估计

MonoViT:基于视觉Transformer的自监督单目深度估计

摘要

自监督单目深度估计是一种极具吸引力的解决方案,其无需依赖难以获取的深度标签进行训练。近年来,卷积神经网络(CNNs)在该任务中取得了显著进展。然而,受限于有限的感受野,现有网络架构仅能进行局部推理,从而削弱了自监督范式的有效性。鉴于视觉Transformer(ViTs)近年来取得的突破性成果,本文提出MonoViT——一种全新的框架,将ViT模型所具备的全局推理能力与自监督单目深度估计的灵活性相结合。通过将标准卷积与Transformer模块相融合,我们的模型能够同时实现局部与全局的语义推理,从而在更精细的层次上提升深度预测的准确性和细节表现。实验表明,MonoViT在公认的KITTI数据集上达到了当前最优的性能水平。此外,该模型在Make3D和DrivingStereo等其他数据集上也展现出卓越的泛化能力,进一步验证了其鲁棒性与适用性。

代码仓库

zxcqlf/monovit
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
monocular-depth-estimation-on-kitti-2MonoViT
absolute relative error: 0.093
monocular-depth-estimation-on-kitti-eigen-1MonoViT(MS+1024x320)
Delta u003c 1.25: 0.912
Delta u003c 1.25^2: 0.969
Delta u003c 1.25^3: 0.985
Mono: X
RMSE: 4.202
RMSE log: 0.169
Resolution: 1024x320
Sq Rel: 0.671
absolute relative error: 0.093

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
MonoViT:基于视觉Transformer的自监督单目深度估计 | 论文 | HyperAI超神经