
摘要
在扩散去噪范式下的单目深度估计展示了令人印象深刻的泛化能力,但其推理速度较低。近期的方法采用了单步确定性范式来提高推理效率,同时保持了相当的性能。然而,这些方法忽视了生成特征与判别特征之间的差距,导致结果次优。在这项工作中,我们提出了DepthMaster,这是一种单步扩散模型,旨在将生成特征适应于判别深度估计任务。首先,为了缓解生成特征引入的纹理细节过拟合问题,我们提出了一种特征对齐模块(Feature Alignment module),该模块融合高质量的语义特征以增强去噪网络的表示能力。其次,为了解决单步确定性框架中缺乏细粒度细节的问题,我们提出了一种傅里叶增强模块(Fourier Enhancement module),以自适应地平衡低频结构和高频细节。我们采用两阶段训练策略来充分发挥这两个模块的潜力。在第一阶段,我们专注于利用特征对齐模块学习全局场景结构;而在第二阶段,则利用傅里叶增强模块提升视觉质量。通过这些努力,我们的模型在泛化能力和细节保留方面达到了最先进的性能,在多个数据集上均优于其他基于扩散的方法。项目页面可访问 https://indu1ge.github.io/DepthMaster_page。
代码仓库
indu1ge/DepthMaster
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| monocular-depth-estimation-on-eth3d | DepthMaster | Delta u003c 1.25: 0.974 absolute relative error: 0.053 |
| monocular-depth-estimation-on-kitti-eigen | DepthMaster | Delta u003c 1.25: 0.937 absolute relative error: 0.082 |
| monocular-depth-estimation-on-nyu-depth-v2 | DepthMaster | Delta u003c 1.25: 0.972 absolute relative error: 0.050 |