4 个月前

循环批归一化

循环批归一化

摘要

我们提出了一种LSTM的重新参数化方法,该方法将批量归一化的优点引入到递归神经网络中。以往的研究仅将批量归一化应用于RNN的输入到隐藏层的转换,而我们证明了对隐藏层到隐藏层的转换进行批量归一化不仅是可行的,而且是有益的,从而减少了时间步之间的内部协变量偏移。我们在各种序列问题上评估了这一提议,包括序列分类、语言建模和问答任务。实验结果表明,我们的批量归一化LSTM在收敛速度和泛化性能方面均表现出显著的优势。

代码仓库

基准测试

基准方法指标
language-modelling-on-text8BN LSTM
Bit per Character (BPC): 1.36
Number of params: 16M
sequential-image-classification-on-sequentialBN LSTM
Permuted Accuracy: 95.4%
Unpermuted Accuracy: 99%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
循环批归一化 | 论文 | HyperAI超神经