3 个月前

激活函数与跳跃连接搜索下NAS的泛化性能

激活函数与跳跃连接搜索下NAS的泛化性能

摘要

神经架构搜索(Neural Architecture Search, NAS)推动了先进神经网络架构的自动化发现。尽管NAS已取得显著进展,但迄今为止,针对NAS的理论保证仍鲜有研究。本文在统一框架下研究NAS的泛化性质,该框架支持(深度)层跳跃连接搜索与激活函数搜索。为此,我们基于包含混合激活函数、全连接网络以及残差网络的特定搜索空间,在有限宽与无限宽两种情形下,推导了神经正切核(Neural Tangent Kernel, NTK)最小特征值的下界(及上界)。利用该最小特征值,我们建立了基于随机梯度下降(SGD)训练的NAS泛化误差上界。尤为重要的是,我们从理论上和实验上证明了所推导结果如何指导NAS在无需训练的情况下选择表现最优的网络架构,从而提出一种基于理论的无训练(train-free)算法。相应地,我们的数值验证为设计计算高效的NAS方法提供了重要启示。由于统一框架下多种网络结构与激活函数之间的耦合关系,本分析具有非平凡性,其本身在深度学习理论中也具有独立意义,为NTK最小特征值的下界提供了新的理论结果。

基准测试

基准方法指标
neural-architecture-search-on-nats-benchEigenNas (Zhu et al., 2022)
Test Accuracy: 45.54
neural-architecture-search-on-nats-bench-1EigenNas (Zhu et al., 2022)
Test Accuracy: 93.46
neural-architecture-search-on-nats-bench-2EigenNas (Zhu et al., 2022)
Test Accuracy: 71.42

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
激活函数与跳跃连接搜索下NAS的泛化性能 | 论文 | HyperAI超神经