
摘要
从单视图图像重建三维形状一直是研究中的一个长期问题。本文介绍了一种深度隐式表面网络(Deep Implicit Surface Network,简称DISN),该网络可以通过预测底层的符号距离场,从二维图像生成高质量且细节丰富的三维网格模型。除了利用全局图像特征外,DISN还预测每个三维点在二维图像上的投影位置,并从图像特征图中提取局部特征。结合全局和局部特征显著提高了符号距离场预测的准确性,特别是在细节丰富的区域。据我们所知,DISN是首个能够持续捕捉单视图图像中三维形状的孔洞和细长结构等细节的方法。DISN在多种形状类别上实现了最先进的单视图重建性能,这些形状类别既包括合成图像也包括真实图像。代码可在https://github.com/xharlie/DISN 获取,补充材料见https://xharlie.github.io/images/neurips_2019_supp.pdf。
代码仓库
Xharlie/DISN
官方
tf
GitHub 中提及
Xharlie/ShapenetRender_more_variation
官方
GitHub 中提及
laughtervv/DISN
官方
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| single-view-3d-reconstruction-on-shapenetcore | 3DN | 3DIoU: 0.487 |
| single-view-3d-reconstruction-on-shapenetcore | OccNet | 3DIoU: 0.564 |
| single-view-3d-reconstruction-on-shapenetcore | IMNET | 3DIoU: 0.546 |
| single-view-3d-reconstruction-on-shapenetcore | DISN | 3DIoU: 0.57 |
| single-view-3d-reconstruction-on-shapenetcore | Pxl2mesh | 3DIoU: 0.473 |
| single-view-3d-reconstruction-on-shapenetcore | AtlasNet | 3DIoU: 0,3 |