4 个月前

UPGPT:通用扩散模型用于人物图像生成、编辑和姿态迁移

UPGPT:通用扩散模型用于人物图像生成、编辑和姿态迁移

摘要

文本到图像模型(Text-to-Image, T2I)如StableDiffusion已被用于生成高质量的人物图像。然而,由于生成过程的随机性,即使使用相同的文本提示,人物的外观(例如姿势、面部和服装)也会有所不同。这种外观不一致性使得T2I在姿态迁移任务中表现不佳。为了解决这一问题,我们提出了一种多模态扩散模型,该模型接受文本、姿态和视觉提示作为输入。我们的模型是首个统一的方法,能够执行所有人物图像任务——生成、姿态迁移和无掩码编辑。此外,我们还开创性地直接使用低维3D人体模型参数,展示了新的能力——在保持人物外观的同时实现姿态和摄像机视角的同步插值。

代码仓库

soon-yau/upgpt
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
pose-transfer-on-deep-fashionUPGPT
FID: 9.427

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
UPGPT:通用扩散模型用于人物图像生成、编辑和姿态迁移 | 论文 | HyperAI超神经