4 个月前

递归神经网络的架构复杂性度量

递归神经网络的架构复杂性度量

摘要

本文系统地分析了循环神经网络(RNNs)的连接架构。我们的主要贡献有两方面:首先,我们提出了一种严格的图论框架,用于描述RNNs的一般连接架构。其次,我们提出了三个衡量RNN架构复杂度的指标:(a) 循环深度(recurrent depth),该指标反映了RNN随时间变化的非线性复杂度;(b) 前馈深度(feedforward depth),该指标捕捉了局部输入输出的非线性关系(类似于前馈神经网络(FNNs)中的“深度”);(c) 循环跳过系数(recurrent skip coefficient),该指标反映了信息随时间传播的速度。我们严格证明了每个指标的存在性和可计算性。实验结果表明,增加循环深度和前馈深度可能对RNNs有益。此外,我们还展示了增加循环跳过系数可以提高解决长期依赖问题的性能。

基准测试

基准方法指标
language-modelling-on-text8td-LSTM (Zhang et al., 2016)
Bit per Character (BPC): 1.63
language-modelling-on-text8td-LSTM-large
Bit per Character (BPC): 1.49

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
递归神经网络的架构复杂性度量 | 论文 | HyperAI超神经