
摘要
我们介绍了一种网络,该网络可以直接从单个图像预测道路场景中的三维车道布局。这项工作标志着首次尝试在不假设已知恒定车道宽度且不依赖预先映射环境的情况下,通过车载传感器解决这一任务。我们的网络架构,3D-LaneNet,引入了两个新的概念:网络内部逆透视投影(IPM)和基于锚点的车道表示。网络内部的IPM投影促进了常规图像视图和俯视图之间的双重表征信息流。基于每列一个锚点的输出表征使我们的端到端方法得以实现,取代了常见的启发式方法(如聚类和异常值剔除),将车道估计问题转化为目标检测问题。此外,我们的方法显式处理了复杂的场景,例如车道合并和分叉。我们在两个新的三维车道数据集上展示了实验结果,一个是合成数据集,另一个是真实数据集。为了与现有方法进行比较,我们在仅使用图像的tuSimple车道检测基准上测试了我们的方法,取得了与最先进方法相当的性能。
代码仓库
yuliangguo/Pytorch_Generalized_3D_Lane_Detection
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-lane-detection-on-apollo-synthetic-3d-lane | 3D-LaneNet | F1: 86.4 X error far: 0.477 X error near: 0.068 Z error far: 0.202 Z error near: 0.015 |
| 3d-lane-detection-on-openlane | 3D-LaneNet | Curve: 46.5 Extreme Weather: 47.5 F1 (all): 44.1 FPS (pytorch): - Intersection: 32.1 Merge u0026 Split: 41.7 Night: 41.5 Up u0026 Down: 40.8 |