
摘要
近期的研究表明,从立体图像对中估计深度可以被表述为一个监督学习任务,并通过卷积神经网络(CNNs)来解决。然而,现有的架构依赖于基于补丁的孪生网络,缺乏在不明确区域利用上下文信息寻找对应关系的手段。为了解决这一问题,我们提出了一种金字塔立体匹配网络(PSMNet),该网络由两个主要模块组成:空间金字塔池化和3D CNN。空间金字塔池化模块通过在不同尺度和位置聚合上下文信息,利用全局上下文信息的能力来形成成本体积。3D CNN则通过堆叠多个沙漏网络并结合中间监督,学习如何正则化成本体积。所提出的算法已在多个基准数据集上进行了评估。在2018年3月18日之前,我们的方法在KITTI 2012和2015排行榜上均排名第一。PSMNet的代码可在以下地址获取:https://github.com/JiaRenChang/PSMNet。
代码仓库
JiaRenChang/PSMNet
官方
pytorch
GitHub 中提及
loevlie/DL_Project_PSMNet
GitHub 中提及
HKBU-HPML/FADNet
pytorch
GitHub 中提及
r07921059/Depth-Map-Generation-on-More-Realistic-Scenes
pytorch
GitHub 中提及
qrzyang/pseudo-stereo
pytorch
GitHub 中提及
ChelseaGH/sidewalk_prototype_AI_Hub
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| omnnidirectional-stereo-depth-estimation-on | PSMNet | Depth-LRCE: 1.809 Depth-MAE: 2.509 Depth-MARE: 0.176 Depth-RMSE: 5.673 Disp-MAE: 0.286 Disp-MARE: 0.248 Disp-RMSE: 0.496 |
| stereo-lidar-fusion-on-kitti-depth-completion | PSMNet | RMSE: 884 |