
摘要
本文提出了一种新颖的姿势引导人物生成网络(Pose Guided Person Generation Network,简称 PG²),该网络可根据目标人物的一张图像及其任意新姿势,合成该人物在指定姿势下的图像。PG² 生成框架显式地利用姿势信息,并包含两个关键阶段:姿势融合与图像精细化。在第一阶段,将条件图像与目标姿势输入一个类似 U-Net 的网络,生成具有目标姿势的初始但较为粗糙的人物图像。第二阶段则通过对抗性训练方式,进一步优化并细化初始结果,以获得清晰、细节丰富的图像。在 128×64 重识别图像和 256×256 时尚照片上的大量实验结果表明,所提出的模型能够生成高质量且细节逼真的人物图像。
代码仓库
sgoldyaev/DeepFashion.ADGAN
pytorch
GitHub 中提及
chuanqichen/deepcoaching
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| gesture-to-gesture-translation-on-ntu-hand | PG2 | AMT: 3.5 IS: 2.4152 PSNR: 28.2403 |
| gesture-to-gesture-translation-on-senz3d | PG2 | AMT: 2.8 IS: 3.3699 PSNR: 26.5138 |
| pose-transfer-on-deep-fashion | PG Squared | IS: 3.090 SSIM: 0.762 |