3 个月前

通过神经架构搜索与张量分解增强GAN性能

通过神经架构搜索与张量分解增强GAN性能

摘要

生成对抗网络(Generative Adversarial Networks, GANs)已成为生成高保真内容的强大工具。本文提出了一种新的训练方法,该方法结合神经架构搜索(Neural Architecture Search, NAS)以自动发现适用于图像生成的最优网络结构,并引入最大均值差异(Maximum Mean Discrepancy, MMD)排斥损失用于对抗训练,从而提升生成质量。此外,通过张量分解技术对生成器网络进行压缩,在显著降低计算开销与推理时间的同时,有效保持了其生成性能。实验结果表明,在CIFAR-10和STL-10数据集上,该方法分别实现了FID分数34%和28%的提升,同时相较于文献中报道的最佳FID得分方法,模型体积分别减小了14倍和31倍。相关实现代码已公开,地址为:https://github.com/PrasannaPulakurthi/MMD-AdversarialNAS。

基准测试

基准方法指标
image-generation-on-stl-10MMD-AdversarialNAS
FID: 12.91
Inception score: 11.6
Model Size (MB): 19.47
image-generation-on-stl-10MMD-AdversarialNAS (Compressed Small)
FID: 14.84
Inception score: 11.66
Model Size (MB): 1.71
image-generation-on-stl-10MMD-AdversarialNAS (Compressed Large)
FID: 13.06
Inception score: 11.28
Model Size (MB): 5.35

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
通过神经架构搜索与张量分解增强GAN性能 | 论文 | HyperAI超神经