4 个月前

通过参数共享学习隐式循环CNNs

通过参数共享学习隐式循环CNNs

摘要

我们提出了一种参数共享方案,其中卷积神经网络(CNN)的不同层由从全局模板库中学习到的参数张量的线性组合来定义。限制模板的数量可以灵活地结合传统的CNN和递归网络。与传统CNN相比,我们在标准图像分类任务上展示了显著的参数节省效果,同时保持了准确性。我们的简单参数共享方案虽然通过软权重定义,但在实际训练过程中通常会产生接近严格递归结构的网络;这些网络在几乎不影响性能的情况下可以转换为具有实际循环结构的网络。因此,训练这些网络实际上隐含着发现合适的递归架构的过程。尽管仅考虑递归链接的设计方面,我们训练的网络在准确率上仍能与使用最先进的神经架构搜索(NAS)方法构建的网络相媲美。我们对递归和卷积网络的混合可能代表了一种有益的架构偏置。具体来说,在具有算法性质的合成任务中,我们的混合网络不仅训练速度更快,而且对外推到训练集范围之外的测试示例也表现更好。

代码仓库

基准测试

基准方法指标
architecture-search-on-cifar-10-imageSoft Parameter Sharing
Params: 33.5
Percentage error: 2.53
image-classification-on-cifar-10Shared WRN
Percentage correct: 97.47
image-classification-on-cifar-100Shared WRN
Percentage correct: 82.57
neural-architecture-search-on-cifar-10Soft Parameter Sharing
Search Time (GPU days): 0.7
Top-1 Error Rate: 2.53%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
通过参数共享学习隐式循环CNNs | 论文 | HyperAI超神经