
摘要
我们研究了将深度生成形状模型扩展至高分辨率的问题。受物体标准视图表示的启发,我们提出了一种新颖的方法,通过在六组正交深度投影上执行超分辨率的神经网络,实现体素空间中3D物体的快速上采样。该方法相较于直接在3D空间中操作的现有方法,能够更高效地实现高分辨率生成。我们将二维深度超分辨率问题分解为轮廓预测与深度预测两个子任务,以同时捕捉物体的结构信息与精细细节。这一设计使我们的方法在生成锐利边缘方面优于单一网络。我们在多个关于高分辨率3D物体的实验中对所提方法进行了评估,结果表明,系统能够准确预测分辨率高达512×512×512的新物体——这是该任务目前报道的最高分辨率。我们在ShapeNet数据集上实现了基于RGB图像的3D物体重建任务的最先进性能,并进一步首次展示了有效的3D超分辨率方法。
代码仓库
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-object-reconstruction-on-data3dr2n2 | MVD | Avg F1: 66.39 |