
摘要
实例分割是场景理解中的关键任务。与高度成熟的2D实例分割相比,基于点云的3D实例分割仍有较大提升空间。本文提出PointGroup,一种全新的端到端自底向上架构,专注于通过探索物体之间的空隙空间来实现更优的点聚类。我们设计了一个双分支网络,用于提取点特征并预测语义标签及偏移量,以将每个点向其所属实例的质心方向移动。随后引入聚类模块,同时利用原始点坐标与经偏移调整后的点坐标集合,充分发挥二者在表征上的互补优势。此外,我们进一步构建ScoreNet对候选实例进行评分,并结合非极大值抑制(Non-Maximum Suppression, NMS)策略去除重复检测结果。我们在两个具有挑战性的数据集ScanNet v2和S3DIS上进行了大量实验,结果表明,所提方法在mAP(IoU阈值为0.5)指标上分别达到63.6%和64.0%,显著优于此前最优方法的54.9%和54.4%。
代码仓库
Pointcept/Pointcept
pytorch
3dlg-hcvc/M3DRef-CLIP
pytorch
GitHub 中提及
atharvmane/ges3vig
pytorch
GitHub 中提及
dvlab-research/pointgroup
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-instance-segmentation-on-s3dis | PointGroup | AP@50: 64.0 mPrec: 69.6 mRec: 69.2 |
| 3d-instance-segmentation-on-scannetv2 | PointGroup | mAP: 40.7 mAP @ 50: 63.6 |
| 3d-instance-segmentation-on-stpls3d | PointGroup | AP: 23.3 AP25: 48.6 AP50: 38.5 |