
摘要
我们提出了一种新的深度学习架构,用于从校正后的立体图像对中回归视差。通过利用问题的几何知识,我们使用深度特征表示构建了成本体积。我们通过在该体积上应用3D卷积来学习如何整合上下文信息。视差值通过提出的可微分软argmin操作从成本体积中回归,这使得我们能够在没有额外后处理或正则化的情况下端到端地训练我们的方法,达到亚像素精度。我们在Scene Flow和KITTI数据集上评估了我们的方法,并在KITTI数据集上设立了新的最先进基准,同时显著快于其他竞争方法。
代码仓库
laoreja/CS231A-project-Stereo-matching
tf
GitHub 中提及
zyf12389/GC-Net
pytorch
GitHub 中提及
EnriqueSolarte/GC-Net-tensorflow
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| stereo-lidar-fusion-on-kitti-depth-completion | GCNet | RMSE: 1031.4 |