
摘要
条件生成对抗网络(Conditional Generative Adversarial Networks, cGAN)通过将类别信息引入生成对抗网络,能够生成逼真的图像。尽管目前最流行的cGAN之一是采用Softmax交叉熵损失的辅助分类器生成对抗网络(Auxiliary Classifier GAN, ACGAN),但众所周知,随着数据集中类别数量的增加,ACGAN的训练变得极具挑战性。此外,ACGAN倾向于生成易于分类且缺乏多样性的样本。本文提出了两种针对ACGAN的改进方法。首先,我们发现分类器中梯度爆炸会导致训练初期出现不理想的坍缩现象,而将输入向量投影到单位超球面上可有效缓解该问题。其次,我们提出了一种数据到数据的交叉熵损失(Data-to-Data Cross-Entropy Loss, D2D-CE),以充分利用类别标注数据集中的关系信息。基于上述改进,我们提出了“重启型辅助分类器生成对抗网络”(Rebooted Auxiliary Classifier Generative Adversarial Network, ReACGAN)。实验结果表明,ReACGAN在CIFAR10、Tiny-ImageNet、CUB200以及ImageNet等多个数据集上均达到了当前最先进的图像生成性能。我们还验证了ReACGAN能够受益于可微分数据增强技术,并且D2D-CE可与StyleGAN2架构良好兼容。本文所涉及的模型权重及包含代表性cGAN实现与全部实验的软件包,已公开于GitHub:https://github.com/POSTECH-CVLab/PyTorch-StudioGAN。
代码仓库
POSTECH-CVLab/PyTorch-StudioGAN
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| conditional-image-generation-on-artbench-10 | ReACGAN + DiffAug | FID: 3.175 |
| conditional-image-generation-on-cifar-10 | StyleGAN2 + DiffAugment + D2D-CE | FID: 2.26 Inception score: 10.51 |
| conditional-image-generation-on-imagenet | ReACGAN | FID: 8.206 Inception score: 96.299 |