4 个月前

通过连续缓存改进神经语言模型

通过连续缓存改进神经语言模型

摘要

我们提出了一种扩展神经网络语言模型的方法,以使其预测适应最近的历史。我们的模型是记忆增强网络的一种简化版本,该网络将过去的隐藏激活存储为记忆,并通过当前隐藏激活与这些记忆之间的点积来访问它们。这种机制非常高效,并且可以扩展到非常大的记忆容量。此外,我们还探讨了神经网络中外部记忆的使用与基于计数的语言模型中缓存模型的使用之间的联系。我们在多个语言模型数据集上展示了我们的方法显著优于近期的记忆增强网络。

代码仓库

llppff/ptb-lstmorqrnn-pytorch
pytorch
GitHub 中提及
uclanlp/NamedEntityLanguageModel
pytorch
GitHub 中提及
AtheMathmo/lookahead-lstm
pytorch
GitHub 中提及
jb33k/awd-lstm-lm-ThinkNet
pytorch
GitHub 中提及
SachinIchake/KALM
pytorch
GitHub 中提及
philippwirth/treelangrnn
pytorch
GitHub 中提及
arvieFrydenlund/awd-lstm-lm
pytorch
GitHub 中提及
ari-holtzman/genlm
pytorch
GitHub 中提及
philippwirth/awd-lstm-test
pytorch
GitHub 中提及
soyoung97/awd-lstm-gru
pytorch
GitHub 中提及
salesforce/awd-lstm-lm
pytorch
GitHub 中提及

基准测试

基准方法指标
language-modelling-on-wikitext-103Neural cache model (size = 100)
Test perplexity: 44.8
language-modelling-on-wikitext-103Neural cache model (size = 2,000)
Test perplexity: 40.8
language-modelling-on-wikitext-103LSTM
Test perplexity: 48.7
language-modelling-on-wikitext-2Grave et al. (2016) - LSTM
Test perplexity: 99.3
language-modelling-on-wikitext-2Grave et al. (2016) - LSTM + continuous cache pointer
Test perplexity: 68.9

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
通过连续缓存改进神经语言模型 | 论文 | HyperAI超神经