
摘要
三维可变形模型(3DMMs)在各种应用中提供了有前景的三维人脸重建。然而,现有的方法由于监督信号的不足,例如稀疏或不准确的地标点,难以重建具有极端表情的人脸。分割信息包含有效的人脸几何上下文。一些尝试直观地依赖可微渲染器来比较重建结果与分割之间的渲染轮廓,但这容易导致局部最优和梯度不稳定等问题。在本文中,我们通过引入面部部分重投影距离损失(Part Re-projection Distance Loss, PRDL)充分利用了面部部分分割的几何信息。具体而言,PRDL将面部部分分割转换为二维点,并将重建结果重新投影到图像平面上。随后,通过引入网格锚点并计算这些锚点到点集的不同统计距离,PRDL建立了几何描述符以优化用于人脸重建的点集分布。与基于渲染器的方法相比,PRDL表现出清晰的梯度,并在广泛的定量和定性实验中展示了最先进的重建性能。我们的项目可在 https://github.com/wang-zidu/3DDFA-V3 获取。
代码仓库
wang-zidu/3ddfa-v3
官方
pytorch
GitHub 中提及
wang-zidu/s2td-face
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-face-reconstruction-on-realy | 3DDFA-v3 | @cheek: 1.110 (±0.328) @forehead: 1.809 (±0.394) @mouth: 1.237 (±0.375) @nose: 1.584 (±0.308) all: 1.435 |
| 3d-face-reconstruction-on-realy-side-view | 3DDFA-v3 | @cheek: 1.073 (±0.316) @forehead: 1.861 (±0.421) @mouth: 1.209 (±0.369) @nose: 1.621 (±0.312) all: 1.441 |