
摘要
在这项工作中,我们提出了一种新的范式,称为4D-StOP,用于解决4D全景激光雷达分割任务。4D-StOP首先通过基于投票的中心预测生成时空提案,其中4D体积中的每个点都会为一个对应的中心投票。这些轨迹提案随后通过学习到的几何特征进行聚合。轨迹聚合方法能够在整个时空体积上生成视频级别的4D场景表示,这与现有的端到端可训练的最先进方法形成了对比,后者使用由高斯概率分布表示的时空嵌入。我们的基于投票的轨迹生成方法结合几何特征聚合,在与使用高斯概率分布建模整个4D体积的方法相比时,显著提高了全景激光雷达分割的质量。当应用于SemanticKITTI测试数据集时,4D-StOP取得了63.9 LSTQ的新最先进成绩,比当前表现最佳的端到端可训练方法大幅提升了7%。代码和预训练模型可在以下网址获取:https://github.com/LarsKreuzberg/4D-StOP。
代码仓库
larskreuzberg/4d-stop
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 4d-panoptic-segmentation-on-semantickitti | 4D-StOP | LSTQ: 63.9 |