
摘要
我们提出了一种扩展神经网络语言模型的方法,以使其预测适应最近的历史。我们的模型是记忆增强网络的一种简化版本,该网络将过去的隐藏激活存储为记忆,并通过当前隐藏激活与这些记忆之间的点积来访问它们。这种机制非常高效,并且可以扩展到非常大的记忆容量。此外,我们还探讨了神经网络中外部记忆的使用与基于计数的语言模型中缓存模型的使用之间的联系。我们在多个语言模型数据集上展示了我们的方法显著优于近期的记忆增强网络。
代码仓库
Asteur/RERITES-AvgWeightDescentLSTM-PoetryGeneration
pytorch
GitHub 中提及
llppff/ptb-lstmorqrnn-pytorch
pytorch
GitHub 中提及
uclanlp/NamedEntityLanguageModel
pytorch
GitHub 中提及
AtheMathmo/lookahead-lstm
pytorch
GitHub 中提及
dmlc/gluon-nlp
mxnet
jb33k/awd-lstm-lm-ThinkNet
pytorch
GitHub 中提及
SachinIchake/KALM
pytorch
GitHub 中提及
jhave/RERITES-AvgWeightDescentLSTM-PoetryGeneration
pytorch
GitHub 中提及
philippwirth/treelangrnn
pytorch
GitHub 中提及
arvieFrydenlund/awd-lstm-lm
pytorch
GitHub 中提及
ari-holtzman/genlm
pytorch
GitHub 中提及
philippwirth/awd-lstm-test
pytorch
GitHub 中提及
soyoung97/awd-lstm-gru
pytorch
GitHub 中提及
salesforce/awd-lstm-lm
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| language-modelling-on-wikitext-103 | Neural cache model (size = 100) | Test perplexity: 44.8 |
| language-modelling-on-wikitext-103 | Neural cache model (size = 2,000) | Test perplexity: 40.8 |
| language-modelling-on-wikitext-103 | LSTM | Test perplexity: 48.7 |
| language-modelling-on-wikitext-2 | Grave et al. (2016) - LSTM | Test perplexity: 99.3 |
| language-modelling-on-wikitext-2 | Grave et al. (2016) - LSTM + continuous cache pointer | Test perplexity: 68.9 |