
摘要
近年来,单目深度估计的自监督方法迅速发展,已成为深度估计任务中的一个重要分支,尤其在自动驾驶应用中展现出巨大潜力。尽管现有方法在整体精度上取得了显著进展,但仍面临两大挑战:a)物体级深度推断不够精确,b)尺度因子存在不确定性。前者可能导致纹理复制现象或产生不准确的物体边界,后者则要求现有方法依赖额外传感器(如LiDAR)提供深度真值,或引入双目相机作为额外训练输入,从而增加了系统实现的复杂性与成本。针对上述问题,本文提出一种名为DNet的新方法,旨在协同解决这两个难题。本文的主要贡献有两点:a)提出一种新颖的密集连接预测(Dense Connected Prediction, DCP)层,显著提升物体级别的深度估计精度;b)针对自动驾驶场景,引入密集几何约束(Dense Geometrical Constraints, DGC),在无需额外硬件成本的前提下,实现高精度的尺度恢复。大量实验结果表明,DCP层和DGC模块分别在提升物体级深度估计质量与实现可靠尺度恢复方面均具有显著效果。得益于DCP层,深度图中物体边界的区分能力得到明显增强,物体内部的深度分布也更加连续平滑。同时,实验还证明,在已知相机高度且地面点占据图像像素比例超过1.03%的条件下,DGC模块在尺度恢复性能上可媲美使用真实深度信息的方法。相关代码已开源,地址为:https://github.com/TJ-IPLab/DNet。
代码仓库
TJ-IPLab/DNet
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| monocular-depth-estimation-on-kitti-eigen | DNet | Delta u003c 1.25: 0.877 Delta u003c 1.25^2: 0.960 Delta u003c 1.25^3: 0.981 RMSE: 4.812 RMSE log: 0.191 absolute relative error: 0.113 |