
摘要
本文提出了一种基于强化学习(Reinforcement Learning, RL)的新型神经架构搜索(Neural Architecture Search, NAS)方法,用于高效、有效地搜索生成对抗网络(Generative Adversarial Network, GAN)的架构。其核心思想是将GAN架构搜索问题建模为马尔可夫决策过程(Markov Decision Process, MDP),以实现更平滑的架构采样,从而通过聚焦潜在全局最优架构,提升基于强化学习的搜索算法的有效性。为提高搜索效率,本文进一步采用了一种离策略(off-policy)的GAN架构搜索算法,充分利用先前策略生成的样本,显著提升了样本利用效率。在两个标准基准数据集(即CIFAR-10和STL-10)上的实验结果表明,所提出的方法能够在大幅降低计算开销(仅需7 GPU小时)的前提下,发现具有高度竞争力的网络架构,并实现更优的图像生成效果。相关代码已开源,地址为:https://github.com/Yuantian013/E2GAN。
代码仓库
Yuantian013/E2GAN
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-generation-on-stl-10 | E2GAN | FID: 25.35 Inception score: 9.51 |