Chaoqiang ZhaoYoumin ZhangMatteo PoggiFabio TosiXianda GuoZheng ZhuGuan HuangYang TangStefano Mattoccia

摘要
自监督单目深度估计是一种极具吸引力的解决方案,其无需依赖难以获取的深度标签进行训练。近年来,卷积神经网络(CNNs)在该任务中取得了显著进展。然而,受限于有限的感受野,现有网络架构仅能进行局部推理,从而削弱了自监督范式的有效性。鉴于视觉Transformer(ViTs)近年来取得的突破性成果,本文提出MonoViT——一种全新的框架,将ViT模型所具备的全局推理能力与自监督单目深度估计的灵活性相结合。通过将标准卷积与Transformer模块相融合,我们的模型能够同时实现局部与全局的语义推理,从而在更精细的层次上提升深度预测的准确性和细节表现。实验表明,MonoViT在公认的KITTI数据集上达到了当前最优的性能水平。此外,该模型在Make3D和DrivingStereo等其他数据集上也展现出卓越的泛化能力,进一步验证了其鲁棒性与适用性。
代码仓库
zxcqlf/monovit
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| monocular-depth-estimation-on-kitti-2 | MonoViT | absolute relative error: 0.093 |
| monocular-depth-estimation-on-kitti-eigen-1 | MonoViT(MS+1024x320) | Delta u003c 1.25: 0.912 Delta u003c 1.25^2: 0.969 Delta u003c 1.25^3: 0.985 Mono: X RMSE: 4.202 RMSE log: 0.169 Resolution: 1024x320 Sq Rel: 0.671 absolute relative error: 0.093 |