4 个月前

学习用更少的记忆记住更多内容

学习用更少的记忆记住更多内容

摘要

由神经控制器和外部存储器组成的增强记忆神经网络在长期序列学习中展现出巨大潜力。目前,类似RAM的存储模型在每个时间步都维持着对存储器的访问,因此未能有效利用控制器中的短期记忆。我们假设这种写入方式在内存利用率上是次优的,并且引入了冗余计算。为了验证这一假设,我们推导出一个关于RAM类系统中存储信息量的理论上限,并构建了一个最大化该上限的优化问题。所提出的解决方案被称为均匀写入(Uniform Writing),在假设每个时间步贡献相等的情况下被证明是最优的。为了放宽这一假设,我们在原始解决方案的基础上进行了修改,从而得到了一种称为缓存均匀写入(Cached Uniform Writing)的方法。该方法旨在通过覆盖机制平衡最大化的记忆和遗忘过程。通过一系列广泛的实验,我们实证了我们的解决方案相较于其他循环架构的优势,并声称在各种序列建模任务中达到了最先进的水平。

代码仓库

基准测试

基准方法指标
sentiment-analysis-on-yelp-binaryDNC+CUW
Error: 3.60
sentiment-analysis-on-yelp-fine-grainedDNC+CUW
Error: 34.40
sequential-image-classification-on-sequentialDNC+CUW
Permuted Accuracy: 96.3%
Unpermuted Accuracy: 99.1%
text-classification-on-ag-newsDNC+CUW
Error: 6.10
text-classification-on-yahoo-answersDNC+CUW
Accuracy: 74.30

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
学习用更少的记忆记住更多内容 | 论文 | HyperAI超神经