4 个月前

准循环神经网络

准循环神经网络

摘要

循环神经网络(Recurrent Neural Networks, RNNs)是建模序列数据的强大工具,但每个时间步的计算依赖于前一个时间步的输出,这限制了并行性,并使得RNN在处理非常长的序列时变得难以管理。我们引入了一种新的神经序列建模方法——准循环神经网络(Quasi-Recurrent Neural Networks, QRNNs),该方法交替使用卷积层(在所有时间步上并行应用)和一种极简的递归池化函数(在所有通道上并行应用)。尽管缺乏可训练的递归层,堆叠的QRNN在预测准确性方面仍优于相同隐层大小的堆叠LSTM。由于其更高的并行性,QRNN在训练和测试时的速度可以比LSTM快16倍。语言模型、情感分类和字符级神经机器翻译实验展示了这些优势,并强调了QRNN作为各种序列任务基本构建块的可行性。

代码仓库

bzhangGo/lrn
tf
GitHub 中提及
salesforce/pytorch-qrnn
pytorch
GitHub 中提及
montallen/qrnn-rna-localization
pytorch
GitHub 中提及
zhou059/w266-project
GitHub 中提及
Kyubyong/quasi-rnn
tf
GitHub 中提及
francescodisalvo05/66DaysOfData
pytorch
GitHub 中提及

基准测试

基准方法指标
machine-translation-on-iwslt2015-germanQRNN
BLEU score: 19.41

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
准循环神经网络 | 论文 | HyperAI超神经