
摘要
多传感器融合显著提升了三维语义占据预测的准确性和鲁棒性,这对于自动驾驶和机器人技术至关重要。然而,大多数现有的方法依赖于高分辨率图像和复杂的网络来实现最佳性能,这限制了它们在实际场景中的应用。此外,大多数多传感器融合方法专注于改进融合特征,而忽视了对这些特征的监督策略的探索。为此,我们提出了一种新的多模态占据预测框架DAOcc,该框架利用三维目标检测监督来辅助实现卓越性能,同时采用了适合部署的图像特征提取网络和实用的输入图像分辨率。此外,我们引入了一种BEV视图范围扩展策略(BEV View Range Extension),以减轻降低图像分辨率带来的不利影响。实验结果表明,DAOcc在Occ3D-nuScenes和SurroundOcc基准测试中达到了新的最先进水平,并且在仅使用ResNet50和256×704输入图像分辨率的情况下,显著超越了其他方法。代码将在https://github.com/AlphaPlusTT/DAOcc上公开发布。
代码仓库
alphaplustt/daocc
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| prediction-of-occupancy-grid-maps-on-occ3d | DAOcc | mIoU: 53.82 |