
摘要
三维场景理解的快速发展带来了对数据日益增长的需求;然而,收集和标注三维场景(如点云)却始终是一项极具挑战性的任务。例如,能够访问并扫描的场景(如室内房间)数量可能有限;即便数据充足,获取三维标签(如实例掩码)仍需大量人工投入。本文探讨了面向三维点云的数据高效学习方法。作为该方向的初步探索,我们提出了一种名为“对比场景上下文”(Contrastive Scene Contexts)的三维预训练方法,该方法同时利用点级对应关系与场景中的空间上下文信息。在一系列训练数据或标签稀缺的基准测试中,该方法取得了当前最优的性能表现。研究结果表明,对三维点云进行详尽标注可能并非必要。尤为显著的是,在ScanNet数据集上,仅使用0.1%的点级标签,我们的方法仍能达到基准模型全标注性能的89%(实例分割)和96%(语义分割)。
代码仓库
facebookresearch/ContrastiveSceneContexts
官方
pytorch
GitHub 中提及
Pointcept/Pointcept
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-semantic-segmentation-on-scannet200 | CSC | test mIoU: 24.9 val mIoU: 26.4 |
| semantic-segmentation-on-s3dis-area5 | CSC+MinkUNet | mIoU: 72.2 |