3 个月前

用于数据高效GAN训练的可微分增强

用于数据高效GAN训练的可微分增强

摘要

生成对抗网络(GANs)在训练数据有限的情况下,性能会显著下降。其主要原因在于判别器倾向于对训练集进行记忆。为应对这一问题,我们提出了一种简单而有效的方法——可微分增强(Differentiable Augmentation, DiffAugment),该方法通过对真实样本和生成样本施加多种可微分的数据增强操作,显著提升了GAN的数据利用效率。以往直接对训练数据进行增强的方法会改变真实图像的分布,效果有限;而DiffAugment则允许对生成样本应用可微分增强,有效稳定了训练过程,并促进了更优的收敛。实验结果表明,该方法在多种GAN架构及损失函数下,无论是无条件生成还是类别条件生成任务中,均表现出一致的性能提升。在ImageNet 128×128数据集上,采用DiffAugment可达到6.80的FID分数和100.8的IS分数,达到当前最优水平;在FFHQ和LSUN数据集上,仅使用1,000张图像即可实现FID分数2至4倍的降低。此外,仅使用20%的训练数据,即可在CIFAR-10和CIFAR-100上达到顶尖性能。最终,该方法仅需100张图像即可生成高保真图像,且无需预训练,其表现与现有的迁移学习算法相当。相关代码已开源,地址为:https://github.com/mit-han-lab/data-efficient-gans。

代码仓库

uzielroy/StyleGan_FewShot
pytorch
GitHub 中提及
milmor/TransGAN
tf
GitHub 中提及
POSTECH-CVLab/PyTorch-StudioGAN
pytorch
GitHub 中提及
milmor/LadaGAN-pytorch
pytorch
GitHub 中提及
milmor/ladagan
tf
GitHub 中提及
gaborvecsei/SLE-GAN
tf
GitHub 中提及
milmor/self-supervised-gan
tf
GitHub 中提及
eps696/stylegan2
tf
GitHub 中提及
mit-han-lab/data-efficient-gans
官方
tf
GitHub 中提及

基准测试

基准方法指标
image-generation-on-cifar-10DiffAugment-BigGAN
FID: 4.61
image-generation-on-cifar-10-10-dataDiffAugment-CR-BigGAN
FID: 18.7
image-generation-on-cifar-10-10-dataDiffAugment-BigGAN
FID: 22.4
image-generation-on-cifar-10-10-dataDiffAugment-StyleGAN2
FID: 14.5
image-generation-on-cifar-10-20-dataDiffAugment-StyleGAN2
FID: 12.15
image-generation-on-cifar-10-20-dataDiffAugment-BigGAN
FID: 14.04
image-generation-on-cifar-10-20-dataDiffAugment-CR-BigGAN
FID: 12.84
image-generation-on-imagenet-128x128DiffAugment-BigGAN
FID: 6.8
IS: 100.8

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
用于数据高效GAN训练的可微分增强 | 论文 | HyperAI超神经