4 个月前

端到端记忆网络

端到端记忆网络

摘要

我们介绍了一种在可能较大的外部存储器上应用循环注意力模型的神经网络。该架构是一种记忆网络(Memory Network)(Weston等人,2015),但与该工作中的模型不同,它采用端到端训练,因此在训练过程中需要的监督显著减少,使其在现实环境中更具普遍适用性。此外,该模型也可以视为RNNsearch的一种扩展,即每个输出符号执行多个计算步骤(跳步)。模型的灵活性使我们能够将其应用于多种任务,如(合成)问答和语言建模。对于前者,我们的方法在竞争性方面与记忆网络相当,但所需的监督较少;对于后者,在Penn TreeBank和Text8数据集上的实验表明,我们的方法性能可与递归神经网络(RNNs)和长短期记忆网络(LSTMs)相媲美。在这两种情况下,我们都证明了多跳计算这一关键概念可以带来更好的结果。

代码仓库

dare0021/MemN2N_Bench
GitHub 中提及
domluna/memn2n
tf
GitHub 中提及
vinhkhuc/MemN2N-babi-python
tf
GitHub 中提及
ishalyminov/memn2n
tf
GitHub 中提及
facebook/bAbI-tasks
pytorch
GitHub 中提及
simonjisu/E2EMN
pytorch
GitHub 中提及
HSabbar/Question-Answering
tf
GitHub 中提及
facebook/MazeBase
pytorch
GitHub 中提及
sheryl-ai/MemGCN
tf
GitHub 中提及
rakeshbm/QA-using-Torch
pytorch
GitHub 中提及
RAGHAVJHA01/chatboat
GitHub 中提及
thomlake/pytorch-attention
pytorch
GitHub 中提及
qapitan/babi-marcus
pytorch
GitHub 中提及
TommyWongww/MemoryNetworks
pytorch
GitHub 中提及
facebookarchive/babi-tasks
pytorch
GitHub 中提及
wujsAct/DeepLearningModels
tf
GitHub 中提及
nbansal90/bAbi_QA
GitHub 中提及
facebook/MemNN
官方
pytorch
GitHub 中提及
google/neural-logic-machines
pytorch
GitHub 中提及
facebookarchive/MazeBase
pytorch
GitHub 中提及
gryan12/chat-bot
tf
GitHub 中提及
stikbuf/Language_Modeling
tf
GitHub 中提及
uwnlp/qrn
tf
GitHub 中提及
cstghitpku/GateMemN2N
tf
GitHub 中提及
TDeepanshPandey/Chat_Bot
GitHub 中提及
Saurabh2798/Q-A-bot
GitHub 中提及
mustafa-yavuz/chatbot-qa
GitHub 中提及
jojonki/MemoryNetworks
pytorch
GitHub 中提及

基准测试

基准方法指标
question-answering-on-babiEnd-To-End Memory Networks
Accuracy (trained on 10k): 93.4%
Accuracy (trained on 1k): 86.1%
Mean Error Rate: 7.5%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
端到端记忆网络 | 论文 | HyperAI超神经