HyperAIHyperAI

Command Palette

Search for a command to run...

用于数据高效GAN训练的可微分增强

Shengyu Zhao Zhijian Liu Ji Lin Jun-Yan Zhu Song Han

摘要

生成对抗网络(GANs)在训练数据有限的情况下,性能会显著下降。其主要原因在于判别器倾向于对训练集进行记忆。为应对这一问题,我们提出了一种简单而有效的方法——可微分增强(Differentiable Augmentation, DiffAugment),该方法通过对真实样本和生成样本施加多种可微分的数据增强操作,显著提升了GAN的数据利用效率。以往直接对训练数据进行增强的方法会改变真实图像的分布,效果有限;而DiffAugment则允许对生成样本应用可微分增强,有效稳定了训练过程,并促进了更优的收敛。实验结果表明,该方法在多种GAN架构及损失函数下,无论是无条件生成还是类别条件生成任务中,均表现出一致的性能提升。在ImageNet 128×128数据集上,采用DiffAugment可达到6.80的FID分数和100.8的IS分数,达到当前最优水平;在FFHQ和LSUN数据集上,仅使用1,000张图像即可实现FID分数2至4倍的降低。此外,仅使用20%的训练数据,即可在CIFAR-10和CIFAR-100上达到顶尖性能。最终,该方法仅需100张图像即可生成高保真图像,且无需预训练,其表现与现有的迁移学习算法相当。相关代码已开源,地址为:https://github.com/mit-han-lab/data-efficient-gans


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供