
摘要
我们提出了一种方法,通过优化一个底层的连续体体积场景函数,利用稀疏的输入视图集合成复杂场景的新视角,从而达到当前最佳的效果。我们的算法使用一个全连接(非卷积)深度网络来表示场景,该网络的输入是一个单一的连续5D坐标(空间位置$(x,y,z)$和观察方向$(θ, ϕ)$),输出则是该空间位置处的体积密度和依赖于视角的辐射亮度。我们通过沿相机光线查询5D坐标来合成为新视角,并使用经典的体积渲染技术将输出的颜色和密度投影到图像中。由于体积渲染具有天然的可微分性,因此优化我们的表示所需的唯一输入是一组已知相机姿态的图像。我们描述了如何有效地优化神经辐射场以渲染具有复杂几何结构和外观的场景的真实感新视角,并展示了在神经渲染和视图合成方面优于先前工作的结果。视图合成的结果最好以视频形式观看,因此我们强烈建议读者查看我们的补充视频以获得令人信服的对比效果。
代码仓库
xk-huang/nerf.mindspore
mindspore
GitHub 中提及
naufalso/keras_nerf
tf
GitHub 中提及
computational-imaging/automatic-integration
pytorch
GitHub 中提及
myagues/flax_nerf
jax
GitHub 中提及
DavidLandup0/deepvision
pytorch
JulianKnodt/nerf_atlas
pytorch
krrish94/nerf-pytorch
pytorch
GitHub 中提及
airalcorn2/pytorch-nerf
pytorch
GitHub 中提及
yuehaowang/nerf-pytorch
pytorch
ALBERT-Inc/blog_nerf
GitHub 中提及
prajwalsingh/NeRF-Pytorch
pytorch
yangyucheng000/NERF
mindspore
GitHub 中提及
kwea123/nerf_pl
pytorch
GitHub 中提及
jamesperlman/nerfrendercore
pytorch
GitHub 中提及
nvlabs/instant-ngp
pytorch
kklemon/gon-pytorch
pytorch
GitHub 中提及
xk-huang/yet-another-nerf
pytorch
russrobin/knowledge_nerf
pytorch
GitHub 中提及
bmild/nerf
官方
tf
GitHub 中提及
jingma-git/NeRF_Pytorch
pytorch
bebeal/mipnerf-pytorch
pytorch
GitHub 中提及
wandb/gallery
tf
GitHub 中提及
yenchenlin/nerf-pytorch
pytorch
kakaobrain/NeRF-Factory
jax
GitHub 中提及
komeiharada/learn_DL_together
tf
GitHub 中提及
glouppe/info8010-deep-learning
pytorch
GitHub 中提及
sillsill777/NeRF-PyTorch
pytorch
GitHub 中提及
facebookresearch/NSVF
pytorch
GitHub 中提及
wandb/awesome-dl-projects
tf
GitHub 中提及
eitan3/nerf_gluon
mxnet
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| low-dose-x-ray-ct-reconstruction-on-x3d | NeRF | PSNR: 32.15 SSIM: 0.9354 |
| novel-view-synthesis-on-x3d | NeRF | PSNR: 32.49 SSIM: 0.9770 |