
摘要
生成对抗网络(GANs)在训练数据有限的情况下,性能会显著下降。其主要原因在于判别器倾向于对训练集进行记忆。为应对这一问题,我们提出了一种简单而有效的方法——可微分增强(Differentiable Augmentation, DiffAugment),该方法通过对真实样本和生成样本施加多种可微分的数据增强操作,显著提升了GAN的数据利用效率。以往直接对训练数据进行增强的方法会改变真实图像的分布,效果有限;而DiffAugment则允许对生成样本应用可微分增强,有效稳定了训练过程,并促进了更优的收敛。实验结果表明,该方法在多种GAN架构及损失函数下,无论是无条件生成还是类别条件生成任务中,均表现出一致的性能提升。在ImageNet 128×128数据集上,采用DiffAugment可达到6.80的FID分数和100.8的IS分数,达到当前最优水平;在FFHQ和LSUN数据集上,仅使用1,000张图像即可实现FID分数2至4倍的降低。此外,仅使用20%的训练数据,即可在CIFAR-10和CIFAR-100上达到顶尖性能。最终,该方法仅需100张图像即可生成高保真图像,且无需预训练,其表现与现有的迁移学习算法相当。相关代码已开源,地址为:https://github.com/mit-han-lab/data-efficient-gans。
代码仓库
claim-berlin/3d_stylegan_circle_of_willis
pytorch
GitHub 中提及
VITA-Group/Ultra-Data-Efficient-GAN-Training
pytorch
GitHub 中提及
uzielroy/StyleGan_FewShot
pytorch
GitHub 中提及
milmor/TransGAN
tf
GitHub 中提及
POSTECH-CVLab/PyTorch-StudioGAN
pytorch
GitHub 中提及
shreshtashetty/CycleGANPhototoMonet
GitHub 中提及
milmor/LadaGAN-pytorch
pytorch
GitHub 中提及
milmor/ladagan
tf
GitHub 中提及
gaborvecsei/SLE-GAN
tf
GitHub 中提及
milmor/self-supervised-gan
tf
GitHub 中提及
eps696/stylegan2
tf
GitHub 中提及
mit-han-lab/data-efficient-gans
官方
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-generation-on-cifar-10 | DiffAugment-BigGAN | FID: 4.61 |
| image-generation-on-cifar-10-10-data | DiffAugment-CR-BigGAN | FID: 18.7 |
| image-generation-on-cifar-10-10-data | DiffAugment-BigGAN | FID: 22.4 |
| image-generation-on-cifar-10-10-data | DiffAugment-StyleGAN2 | FID: 14.5 |
| image-generation-on-cifar-10-20-data | DiffAugment-StyleGAN2 | FID: 12.15 |
| image-generation-on-cifar-10-20-data | DiffAugment-BigGAN | FID: 14.04 |
| image-generation-on-cifar-10-20-data | DiffAugment-CR-BigGAN | FID: 12.84 |
| image-generation-on-imagenet-128x128 | DiffAugment-BigGAN | FID: 6.8 IS: 100.8 |