
摘要
生成对抗网络(GANs)被广泛用于学习数据采样过程,其性能在计算资源有限的情况下可能严重依赖于损失函数的选择。本研究重新审视了使用最大均值差异(MMD)作为损失函数的MMD-GAN,并做出了两项贡献。首先,我们认为现有的MMD损失函数可能会抑制对数据中细微特征的学习,因为它试图压缩真实数据的判别器输出。为了解决这一问题,我们提出了一种排斥性损失函数,通过简单地重新排列MMD中的项来积极学习真实数据之间的差异。其次,受铰链损失的启发,我们提出了一种有界的高斯核来稳定带有排斥性损失函数的MMD-GAN的训练过程。所提出的方法应用于CIFAR-10、STL-10、CelebA和LSUN卧室数据集上的无监督图像生成任务。实验结果表明,排斥性损失函数在不增加额外计算成本的情况下显著优于MMD损失函数,并且优于其他代表性损失函数。所提出的方法使用单个DCGAN网络和谱归一化在CIFAR-10数据集上达到了16.21的FID分数。
代码仓库
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-generation-on-stl-10 | Improving MMD GAN | FID: 37.63 Inception score: 9.34 |