
摘要
我们致力于从单张RGB输入图像中估计高质量的稠密深度图。首先,我们采用一个基准的编码器-解码器卷积神经网络架构,并探讨全局信息处理在提升整体深度估计性能方面的潜力。为此,我们提出一种基于Transformer的架构模块——AdaBins,该模块将深度范围划分为若干区间(bin),并针对每张图像自适应地估计每个区间的中心值。最终的深度值通过这些区间中心值的线性组合进行预测。实验结果表明,我们在多个主流深度估计数据集上,于各项指标上均显著超越当前最优方法。通过消融实验,我们进一步验证了所提模块的有效性,并公开了新模型的代码及对应的预训练权重。
代码仓库
martius-lab/beta-nll
pytorch
GitHub 中提及
dylanauty/mde-biological-vision-systems
pytorch
GitHub 中提及
shariqfarooq123/AdaBins
官方
pytorch
GitHub 中提及
danielzgsilva/MonoDepthAttacks
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| depth-estimation-on-nyu-depth-v2 | AdaBins | RMS: 0.364 |
| monocular-depth-estimation-on-kitti-eigen | AdaBins | Delta u003c 1.25: 0.964 Delta u003c 1.25^2: 0.995 Delta u003c 1.25^3: 0.999 RMSE: 2.360 RMSE log: 0.088 absolute relative error: 0.058 |
| monocular-depth-estimation-on-nyu-depth-v2 | AdaBins | Delta u003c 1.25: 0.903 Delta u003c 1.25^2: 0.984 Delta u003c 1.25^3: 0.997 RMSE: 0.364 absolute relative error: 0.103 log 10: 0.044 |