
摘要
我们提出了一种快速且成本低廉的自动模型设计方法——高效神经架构搜索(ENAS)。在ENAS中,控制器通过在一个大型计算图中搜索最优子图来学习发现神经网络架构。控制器使用策略梯度进行训练,以选择一个在验证集上最大化预期奖励的子图。与此同时,所选子图对应的模型则被训练以最小化标准交叉熵损失。由于子模型之间共享参数,ENAS的速度非常快:它使用比所有现有自动模型设计方法少得多的GPU小时数就能实现强大的实证性能,并且特别值得注意的是,其成本仅为标准神经架构搜索(NAS)的1/1000。在Penn Treebank数据集上,ENAS发现了一种新的架构,该架构达到了55.8的测试困惑度,创下了所有无需后训练处理的方法中的最新记录。在CIFAR-10数据集上,ENAS设计的新架构实现了2.89%的测试误差率,这一结果与NASNet(Zoph等人,2018年)相当,后者在测试中的误差率为2.65%。
代码仓库
Ezereal/enas
tf
GitHub 中提及
MengTianjian/enas-pytorch
pytorch
GitHub 中提及
MS-Mind/MS-Code-06/tree/main/nasnet
mindspore
cshannonn/blackscholes_nas
GitHub 中提及
aymanshams07/enas_cifar10
tf
GitHub 中提及
kaileymonn/Quantized-ENAS-ConvNets
tf
GitHub 中提及
zbyte64/pytorch-dagsearch
pytorch
GitHub 中提及
yashkant/ENAS-Quantized-Neural-Networks
tf
GitHub 中提及
guoyongcs/NATv2
pytorch
GitHub 中提及
countif/enas_nni
tf
GitHub 中提及
MINGUKKANG/PNU_Termproject_ENAS
tf
GitHub 中提及
ahundt/renas
tf
GitHub 中提及
ahundt/enas
tf
GitHub 中提及
guoyongcs/NAT
pytorch
GitHub 中提及
invisibleForce/ENAS-Pytorch
pytorch
GitHub 中提及
rutgerswiselab/autolossgen
pytorch
GitHub 中提及
carpedm20/ENAS-pytorch
pytorch
GitHub 中提及
HaiTMai/Time-Series-Forecast
GitHub 中提及
melodyguan/enas
tf
GitHub 中提及
MINGUKKANG/PNU_Capstone_Design
tf
GitHub 中提及
RualPerez/AutoML
pytorch
GitHub 中提及
WillButAgain/ENAS
pytorch
GitHub 中提及
senthilva/Keras_functional_API_CNN
GitHub 中提及
MINGUKKANG/ENAS-Tensorflow
tf
GitHub 中提及
distrue/enas_tensorflow
tf
GitHub 中提及
f51980280/ENAS-Implement
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| architecture-search-on-cifar-10-image | ENAS + c/o | Params: 4.6M Percentage error: 2.89 |
| language-modelling-on-penn-treebank-word | Efficient NAS | Params: 24M Test perplexity: 58.6 Validation perplexity: 60.8 |