
摘要
现有的深度或视差估计方法通常输出一组预定义离散值的概率分布。当真实深度或视差与这些值不匹配时,这会导致结果不准确。由于这种分布通常是通过回归损失间接学习的,因此在物体边界附近的模糊区域会产生进一步的问题。我们通过提出一种新的神经网络架构来解决这些问题,该架构能够输出任意深度值,并引入了一种新的损失函数,该函数基于真实分布与预测分布之间的Wasserstein距离(Wasserstein distance)推导而来。我们在多种任务上验证了我们的方法,包括立体视差估计和深度估计,以及下游的三维目标检测。我们的方法显著减少了模糊区域的误差,特别是在对三维空间中物体定位影响较大的物体边界附近,从而在自动驾驶领域的三维目标检测中达到了最先进的水平。我们的代码将在https://github.com/Div99/W-Stereo-Disp 上提供。
代码仓库
Div99/W-Stereo-Disp
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-object-detection-from-stereo-images-on-1 | CDN-DSGN | AP75: 54.2 |
| stereo-depth-estimation-on-kitti2015 | CDN-GANet Deep | three pixel error: 1.92 |