Daniel SeichterBenedict StephanSöhnke Benedikt FischedickSteffen MüllerLeonard RabesHorst-Michael Gross

摘要
随着移动机器人应用场景日益复杂和具有挑战性,场景理解变得愈发关键。一个能够在室内环境中实现自主运行的移动机器人,必须具备对环境中存在哪些物体、物体的位置、其空间范围以及可到达性的精确认知;换言之,关于自由空间的信息同样至关重要。全景映射(Panoptic Mapping)是一种能够提供此类信息的强大工具。然而,受限于移动机器人本身的计算能力,构建高空间分辨率的三维全景地图仍面临巨大挑战。本文提出了一种基于占据正态分布变换(Occupancy Normal Distribution Transform, NDT)的高效且鲁棒的全景映射方法——PanopticNDT。我们在公开可用的Hypersim和ScanNetV2数据集上对所提方法进行了评估。实验结果表明,与现有最先进的方法相比,PanopticNDT能够在保持实时性的同时,以更高层次的细节表征全景信息。最后,我们通过在实际家庭场景中的定性结果,验证了PanopticNDT在真实环境中的适用性与有效性。
代码仓库
tui-nicr/emsaformer
pytorch
GitHub 中提及
tui-nicr/emsanet
pytorch
GitHub 中提及
tui-nicr/panoptic-mapping
官方
pytorch
GitHub 中提及
tui-nicr/nicr-scene-analysis-datasets
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-semantic-segmentation-on-hypersim | SemanticNDT (10cm) | mIoU: 44.31 mIoU (test): 44.8 |
| 3d-semantic-segmentation-on-hypersim | PanopticNDT (10cm) | mIoU: 45.43 mIoU (test): 45.34 |
| panoptic-segmentation-on-hypersim | EMSANet (2x ResNet-34 NBt1D) | PQ: 34.95 PQ (test): 29.77 mIoU: 49.12 mIoU (test): 44.66 |
| panoptic-segmentation-on-nyu-depth-v2 | EMSANet (2x ResNet-34 NBt1D, PanopticNDT version, finetuned) | PQ: 51.15 |
| panoptic-segmentation-on-scannetv2 | PanopticNDT (10cm) | PQ: 59.19 |
| semantic-segmentation-on-hypersim | EMSANet (2x ResNet-34 NBt1D) | mIoU: 49.74 mIoU (test): 46.66 |
| semantic-segmentation-on-nyu-depth-v2 | EMSANet (2x ResNet-34 NBt1D, PanopticNDT version, finetuned) | Mean IoU: 59.02 |
| semantic-segmentation-on-scannet | PanopticNDT (10cm) | test mIoU: 68.1 val mIoU: 68.39 |
| semantic-segmentation-on-scannetv2 | EMSANet (2x ResNet-34 NBt1D, PanopticNDT version) | Mean IoU: 60.0% Mean IoU (test): 60.0% Mean IoU (val): 70.99% |
| semantic-segmentation-on-sun-rgbd | EMSANet (2x ResNet-34 NBt1D, PanopticNDT version, finetuned) | Mean IoU: 50.86% |