3 个月前

自注意力关联记忆

自注意力关联记忆

摘要

以往,带有外部记忆的神经网络通常仅限于单一记忆结构,且对记忆间交互关系的表示存在信息损失。为更充分地刻画记忆片段之间的复杂关系,亟需一种高阶且分立的关联记忆机制。本文提出将个体经验的存储(项记忆)与其发生关联关系的存储(关系记忆)进行分离。该思想通过一种新型的自注意力关联记忆(Self-attentive Associative Memory, SAM)算子得以实现。SAM基于外积构建,能够生成一组关联记忆,用于表征任意记忆元素对之间的潜在高阶关系,从而由项记忆构建出完整的关系记忆。两项记忆被整合进一个统一的序列模型中,兼具记忆存储与关系推理能力。在多种机器学习任务中,包括具有挑战性的合成问题以及几何推理、图结构处理、强化学习和问答系统等实际应用场景,所提出的双记忆模型均取得了具有竞争力的性能表现。

代码仓库

thaihungle/SAM
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
question-answering-on-babiSTM
Accuracy (trained on 10k): 99.85%
Mean Error Rate: 0.39%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
自注意力关联记忆 | 论文 | HyperAI超神经