4 个月前

CodeTalker:基于语音驱动的3D面部动画生成方法及其离散运动先验

CodeTalker:基于语音驱动的3D面部动画生成方法及其离散运动先验

摘要

语音驱动的3D面部动画已经得到了广泛研究,但由于其高度不确定的性质以及音频-视觉数据的稀缺性,实现真实感和生动性仍存在差距。现有的研究通常将跨模态映射问题转化为回归任务,这导致了均值回归问题,使得生成的面部动作过于平滑。在本文中,我们提出将语音驱动的面部动画视为在学习到的代码簿(codebook)有限代理空间中的编码查询任务,这通过减少跨模态映射的不确定性有效提升了生成动作的生动性。代码簿通过自重建真实面部动作而学习得到,因此嵌入了真实的面部运动先验知识。在离散的动作空间中,采用时间自回归模型依次从输入语音信号合成面部动作,从而保证了口型同步及合理的面部表情。我们展示了我们的方法在定性和定量方面均优于当前最先进的方法。此外,用户研究进一步证实了我们在感知质量上的优越性。

代码仓库

Doubiiu/CodeTalker
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
3d-face-animation-on-beat2CodeTalker
MSE: 8.026
3d-face-animation-on-biwi-3d-audiovisualCodeTalker
FDD: 4.1170
Lip Vertex Error: 4.7914

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
CodeTalker:基于语音驱动的3D面部动画生成方法及其离散运动先验 | 论文 | HyperAI超神经