
摘要
我们提出了一种称为Gen-LaneNet的通用且可扩展的方法,用于从单幅图像中检测三维车道。该方法受到最新的3D-LaneNet启发,是一个统一的框架,在单一网络中解决了图像编码、特征的空间变换和三维车道预测问题。然而,我们在Gen-LaneNet的设计上提出了两个独特的改进。首先,我们引入了一种新的几何引导车道锚点表示方法,并在新的坐标系中应用特定的几何变换,直接从网络输出计算出真实的三维车道点。我们证明了在新的坐标系中将车道点与底层俯视图特征对齐对于处理不熟悉的场景至关重要。其次,我们提出了一种可扩展的两阶段框架,将图像分割子网络和几何编码子网络的学习过程解耦。与3D-LaneNet相比,所提出的Gen-LaneNet大幅减少了实现鲁棒解决方案所需的真实世界应用中的三维车道标签数量。此外,我们发布了一个新的合成数据集及其构建策略,以促进三维车道检测方法的发展和评估。在实验中,我们进行了广泛的消融研究,以证实所提出的Gen-LaneNet在平均精度(AP)和F分数方面显著优于3D-LaneNet。
代码仓库
yuliangguo/Pytorch_Generalized_3D_Lane_Detection
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-lane-detection-on-apollo-synthetic-3d-lane | Gen-LaneNet | F1: 88.1 X error far: 0.496 X error near: 0.061 Z error far: 0.214 Z error near: 0.012 |
| 3d-lane-detection-on-openlane | Gen-LaneNet | Curve: 33.5 Extreme Weather: 28.1 F1 (all): 32.3 FPS (pytorch): - Intersection: 21.4 Merge u0026 Split: 31.0 Night: 18.7 Up u0026 Down: 25.4 |