
摘要
我们提出了一种基于深度学习的新框架,以应对大规模点云(包含数百万个点)的语义分割挑战。我们认为,通过将扫描场景划分为几何均匀的元素,可以高效地捕捉3D点云的组织结构,这种结构被称为超点图(Superpoint Graph, SPG)。超点图提供了一种紧凑而丰富的表示方法,能够描述物体部分之间的上下文关系,这些关系随后被图卷积网络所利用。我们的框架在室外LiDAR扫描的语义分割方面达到了新的技术水平(Semantic3D测试集的mIoU分别提高了11.9和8.8个百分点),同时在室内扫描方面也取得了显著进展(S3DIS数据集的mIoU提高了12.4个百分点)。
代码仓库
loicland/superpoint_graph
官方
pytorch
GitHub 中提及
jsgaobiao/superpoint_graph
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-semantic-segmentation-on-dales | SPG | Model size: 280K Overall Accuracy: 95.5 mIoU: 60.6 |
| 3d-semantic-segmentation-on-semantickitti | SPGraph | test mIoU: 17.4% |
| 3d-semantic-segmentation-on-sensaturban | SPGraph | mIoU: 37.29 |
| semantic-segmentation-on-s3dis | SPG | Mean IoU: 62.1 Number of params: 0.290M Params (M): 0.29 mAcc: 73 oAcc: 85.5 |
| semantic-segmentation-on-s3dis-area5 | SPG | Number of params: 280K mAcc: 66.5 mIoU: 58.04 oAcc: 86.38 |
| semantic-segmentation-on-semantic3d | SPG | mIoU: 73.2% |
| semantic-segmentation-on-semantic3d | SPG | mIoU: 76.2% oAcc: 92.9% |