
摘要
我们提出了 GANav,一种新颖的分组注意力机制,旨在从RGB图像中识别非结构化环境与非道路地形中的安全可通行区域。本方法基于粗粒度语义分割对地形的可通行性水平进行分类。我们提出的分组注意力损失函数,使任意主干网络能够显式关注低分辨率下不同组别的特征,从而实现高效推理,同时在精度上优于现有最先进(SOTA)方法。在RUGD和RELLIS-3D数据集上的大量实验表明,GANav在RUGD上相较SOTA方法将平均交并比(mIoU)提升了2.25%至39.05%,在RELLIS-3D上提升了5.17%至19.06%。我们将GANav与基于深度强化学习的导航算法相结合,验证了其在真实非结构化地形中导航的显著优势。进一步地,我们将基于GANav的导航算法集成至ClearPath Jackal与Husky机器人平台,实验结果显示:任务成功率提升10%,最优可通行表面选择率提高2%至47%,轨迹粗糙度降低4.6%至13.9%。此外,GANav还将禁止区域的误报率降低了37.79%。代码、演示视频及完整技术报告可访问 https://gamma.umd.edu/offroad/ 获取。
代码仓库
rayguan97/GANav-offroad
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| semantic-segmentation-on-rellis-3d-dataset | GA-Nav | Mean IoU (class): 74.44 |
| semantic-segmentation-on-rugd | GA-Nav | AIOU: 95.66 mIoU: 89.08 |