
摘要
神经网络是一种强大且灵活的模型,适用于图像、语音和自然语言理解等许多复杂的机器学习任务。尽管取得了显著的成功,但设计神经网络仍然具有挑战性。在本文中,我们使用递归神经网络(RNN)生成神经网络的模型描述,并通过强化学习训练该RNN,以最大化生成架构在验证集上的预期准确率。在CIFAR-10数据集上,我们的方法从零开始设计了一种新型网络架构,其测试集准确率可与最佳的人工设计架构相媲美。我们的CIFAR-10模型实现了3.65%的测试错误率,比之前使用类似架构方案的最佳模型提高了0.09个百分点,并且速度快1.05倍。在Penn Treebank数据集上,我们的模型可以构建一种新型递归单元,其性能优于广泛使用的LSTM单元和其他最先进的基线模型。我们的单元在Penn Treebank测试集上达到了62.4的困惑度,比之前的最佳模型低3.6个困惑度。此外,该单元还可以迁移到PTB上的字符语言建模任务,并实现了1.214的最新困惑度。
代码仓库
cshannonn/blackscholes_nas
GitHub 中提及
abcp4/DAPytorch
pytorch
GitHub 中提及
YaCpotato/B4ResearchDeepaugment
GitHub 中提及
TreeLimes/QANAS
pytorch
GitHub 中提及
GiuliaLanzillotta/INAS
pytorch
GitHub 中提及
carpedm20/ENAS-pytorch
pytorch
GitHub 中提及
YaCpotato/deepaugmentFix
GitHub 中提及
titu1994/neural-architecture-search
tf
GitHub 中提及
tally0818/NASNet
pytorch
GitHub 中提及
barisozmen/deepaugment
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| architecture-search-on-cifar-10-image | NAS-RL-A + c/o | Params: 27.6M Percentage error: 2.4 |
| image-classification-on-cifar-10 | NAS-RL | Percentage correct: 96.4 |
| language-modelling-on-penn-treebank-character | NAS-RL | Bit per Character (BPC): 1.214 Number of params: 16.3M |
| language-modelling-on-penn-treebank-word | NAS-RL | Params: 25M Test perplexity: 64.0 |