
摘要
受近期利用形状先验实现鲁棒3D重建方法成功的启发,我们提出了一种新的递归神经网络架构,称为3D递归重建神经网络(3D-R2N2)。该网络从大量合成数据中学习将物体图像映射到其底层3D形状。我们的网络可以接收一个或多个来自任意视角的物体实例图像,并输出以3D占用网格形式表示的物体重建结果。与大多数先前的工作不同,我们的网络在训练和测试过程中不需要任何图像注释或物体类别标签。我们广泛的实验分析表明,我们的重建框架在单视图重建方面优于现有最先进方法,并且在传统SFM/SLAM方法因缺乏纹理和/或基线过宽而失效的情况下,仍能实现物体的3D重建。
代码仓库
liuzhengzhe/dreamstone-iss
pytorch
GitHub 中提及
ttaa9/genren
pytorch
GitHub 中提及
chrischoy/3D-R2N2
GitHub 中提及
JeremyFisher/deep_level_sets
pytorch
GitHub 中提及
natowi/3D-reconstruction-with-Neural-Networks
pytorch
GitHub 中提及
Xharlie/ShapenetRender_more_variation
GitHub 中提及
Amaranth819/3dr2n2-tensorflow
tf
GitHub 中提及
raphaelsulzer/dsr-benchmark
GitHub 中提及
raphaelsulzer/dsrv-data
GitHub 中提及
Radhika009/CMPE_295B_MASTERPROJECT
pytorch
GitHub 中提及
pranavbajoria93/3D_Reconstruction_3DR2N2
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-object-reconstruction-on-data3dr2n2 | 3D-R2N2 | Avg F1: 39.01 |
| 3d-object-reconstruction-on-data3dr2n2 | 3D-R2N2 | 3DIoU: 0.56 |
| 3d-reconstruction-on-data3dr2n2 | 3D-R2N2 | 3DIoU: 0.560 |
| 3d-reconstruction-on-dtu | 3D-R2N2 | Acc: 0.397 Comp: 0.884 Overall: 0.630 |