4 个月前

关系循环神经网络

关系循环神经网络

摘要

基于记忆的神经网络通过利用长时间记住信息的能力来建模时序数据。然而,目前尚不清楚这些网络是否也能够对其记住的信息进行复杂的关联推理。首先,我们验证了标准记忆架构在涉及实体间连接方式理解的任务中可能表现不佳——即涉及关联推理的任务。随后,我们通过引入一种新的记忆模块——关联记忆核心(Relational Memory Core, RMC)——来改进这一不足,该模块使用多头点积注意力机制使记忆之间能够相互作用。最后,我们在一系列可能从更强大的序列信息关联推理中受益的任务上测试了RMC,并展示了在强化学习领域(例如Mini PacMan)、程序评估和语言建模方面取得了显著的性能提升,在WikiText-103、Project Gutenberg和GigaWord数据集上达到了最先进的结果。

代码仓库

基准测试

基准方法指标
language-modelling-on-wikitext-103LSTM (RMC)
Test perplexity: 31.6
Validation perplexity: 30.8

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
关系循环神经网络 | 论文 | HyperAI超神经