
摘要
全景驾驶感知系统是自动驾驶的重要组成部分。高精度和实时的感知系统可以在驾驶过程中协助车辆做出合理的决策。我们提出了一种全景驾驶感知网络(YOLOP),该网络能够同时执行交通物体检测、可行驶区域分割和车道线检测任务。该模型由一个用于特征提取的编码器和三个分别处理特定任务的解码器组成。我们的模型在具有挑战性的BDD100K数据集上表现出色,在精度和速度方面均达到了所有三项任务的最先进水平。此外,通过消融实验,我们验证了多任务学习模型在联合训练中的有效性。据我们所知,这是第一项能够在嵌入式设备Jetson TX2上实时处理这三项视觉感知任务(23帧/秒)并保持出色精度的工作。为了促进进一步的研究,源代码和预训练模型已发布在https://github.com/hustvl/YOLOP。
代码仓库
hustvl/yolop
官方
pytorch
GitHub 中提及
notmariekondo/notmariekondo
GitHub 中提及
datvuthanh/HybridNets
pytorch
GitHub 中提及
kun-g/Scraping-Github-trending
tf
GitHub 中提及
hustvl/YOLOP
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| drivable-area-detection-on-bdd100k-val | YOLOP | Params (M): 7.9 mIoU: 91.5 |
| lane-detection-on-bdd100k-val | YOLOP | Accuracy (%): 70.5 IoU (%): 26.2 Params (M): 7.9 |