
摘要
一个好的图像到图像翻译模型应该在学习不同视觉域之间的映射时满足以下属性:1)生成图像的多样性;2)跨多个域的可扩展性。现有的方法通常只能解决其中一个或另一个问题,要么生成的图像多样性有限,要么需要为所有域构建多个模型。我们提出了StarGAN v2,这是一个单一框架,能够同时应对这两个挑战,并在基线模型上显示出显著改进的结果。我们在CelebA-HQ和一个新的动物面部数据集(AFHQ)上的实验验证了我们在视觉质量、多样性和可扩展性方面的优越性。为了更好地评估图像到图像翻译模型,我们发布了AFHQ,该数据集包含高质量的动物面部图像,并具有较大的域间和域内差异。代码、预训练模型和数据集可以在https://github.com/clovaai/stargan-v2找到。
代码仓库
taki0112/StarGAN_v2-Tensorflow
tf
GitHub 中提及
naver-ai/StyleMapGAN
pytorch
GitHub 中提及
eps696/stargan2
pytorch
GitHub 中提及
KbeautyHair/BaselineModel
pytorch
GitHub 中提及
threeracha/Chuibbo-Flask-Server
pytorch
GitHub 中提及
zzz2010/starganv2_paddle
pytorch
GitHub 中提及
mindslab-ai/hififace
pytorch
GitHub 中提及
karlchahine/neural-cover-selection-for-image-steganography
pytorch
GitHub 中提及
kunheek/style-aware-discriminator
pytorch
GitHub 中提及
clovaai/stargan-v2
官方
pytorch
GitHub 中提及
SUPERSHOPxyz/stylegan3-gradient
pytorch
GitHub 中提及
sss20young/Chuibbo-Flask-Server
pytorch
GitHub 中提及
UdonDa/StarGAN-v2-pytorch-nonofficial
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| fundus-to-angiography-generation-on-fundus | StarGAN-v2 | FID: 27.7 Kernel Inception Distance: 0.00118 |
| image-to-image-translation-on-afhq | StarGAN v2 | FID: 24.4 LPIPS: 0.524 |
| image-to-image-translation-on-celeba-hq | StarGAN v2 | FID: 13.73 LPIPS: 0.428 |
| multimodal-unsupervised-image-to-image-4 | StarGAN v2 | FID: 13.73 |
| multimodal-unsupervised-image-to-image-5 | StarGAN v2 | FID: 16.2 |