3 个月前

重新思考用于LiDAR分割的范围视图表示

重新思考用于LiDAR分割的范围视图表示

摘要

LiDAR点云分割在自动驾驶感知中至关重要。近年来,基于点或体素(voxel)的方法因其通常优于传统距离视图(range view)表示的性能而备受青睐。本文揭示了构建高效距离视图模型中的若干关键因素。我们发现,“多对一”映射、语义不一致性以及形状变形可能是阻碍从距离视图投影中有效学习的主要障碍。为此,我们提出RangeFormer——一个端到端的完整框架,其在网络架构、数据增强和后处理等环节均引入了创新设计,能够更有效地处理来自距离视图的LiDAR点云的学习与处理任务。此外,我们进一步提出一种可扩展的距离视图训练策略(Scalable Training from Range view, STR),该策略可在任意低分辨率2D距离图像上进行训练,同时仍能保持令人满意的3D分割精度。实验表明,这是首次有距离视图方法在SemanticKITTI、nuScenes和ScribbleKITTI等主流LiDAR语义与全景分割基准测试中,超越了点云、体素以及多视角融合方法的性能表现。

基准测试

基准方法指标
3d-semantic-segmentation-on-semantickittiRangeFormer
test mIoU: 73.3%
val mIoU: 67.6%
lidar-semantic-segmentation-on-nuscenesRangeFormer
test mIoU: 0.81

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
重新思考用于LiDAR分割的范围视图表示 | 论文 | HyperAI超神经