
摘要
全景图像能够同时呈现周围环境的完整信息,在虚拟旅游、游戏、机器人等领域具有诸多优势。然而,现有的全景深度估计方法由于依赖常见的投影方式,仍无法完全解决由此带来的畸变和不连续问题。本文提出了一种新型的全景深度估计方法——SphereDepth,该方法直接在球面网格(spherical mesh)上进行深度预测,无需传统的投影预处理步骤。其核心思想是建立全景图像与球面网格之间的映射关系,并利用深度神经网络在球面域上提取特征,进而预测深度。为应对高分辨率全景数据带来的计算效率挑战,本文在所提出的球面网格处理框架中引入两个超参数,以在推理速度与精度之间实现有效权衡。在三个公开的全景数据集上的实验验证表明,SphereDepth在性能上可与当前最先进的全景深度估计方法相媲美。得益于球面域的几何结构,SphereDepth能够生成高质量的点云,并显著缓解传统方法中存在的畸变与不连续问题。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| depth-estimation-on-stanford2d3d-panoramic | SphereDepth | RMSE: 0.4512 absolute relative error: 0.1158 |