
摘要
我们介绍了一种在可能较大的外部存储器上应用循环注意力模型的神经网络。该架构是一种记忆网络(Memory Network)(Weston等人,2015),但与该工作中的模型不同,它采用端到端训练,因此在训练过程中需要的监督显著减少,使其在现实环境中更具普遍适用性。此外,该模型也可以视为RNNsearch的一种扩展,即每个输出符号执行多个计算步骤(跳步)。模型的灵活性使我们能够将其应用于多种任务,如(合成)问答和语言建模。对于前者,我们的方法在竞争性方面与记忆网络相当,但所需的监督较少;对于后者,在Penn TreeBank和Text8数据集上的实验表明,我们的方法性能可与递归神经网络(RNNs)和长短期记忆网络(LSTMs)相媲美。在这两种情况下,我们都证明了多跳计算这一关键概念可以带来更好的结果。
代码仓库
dare0021/MemN2N_Bench
GitHub 中提及
domluna/memn2n
tf
GitHub 中提及
vinhkhuc/MemN2N-babi-python
tf
GitHub 中提及
ishalyminov/memn2n
tf
GitHub 中提及
facebook/bAbI-tasks
pytorch
GitHub 中提及
benprano/Question-Answering-Deep-Learning
tf
GitHub 中提及
simonjisu/E2EMN
pytorch
GitHub 中提及
HSabbar/Question-Answering
tf
GitHub 中提及
facebook/MazeBase
pytorch
GitHub 中提及
sayakbanerjee1999/Chat-Bot
GitHub 中提及
sheryl-ai/MemGCN
tf
GitHub 中提及
gaurav9713/simpleQA_chatbot
GitHub 中提及
rakeshbm/QA-using-Torch
pytorch
GitHub 中提及
RAGHAVJHA01/chatboat
GitHub 中提及
candoz/memn2n-dialog-babi-keras
tf
GitHub 中提及
sy-sunmoon/Clever-Commenter-Let-s-Try-More-Apps
pytorch
GitHub 中提及
thomlake/pytorch-attention
pytorch
GitHub 中提及
qapitan/babi-marcus
pytorch
GitHub 中提及
SeonbeomKim/TensorFlow-MemN2N
tf
GitHub 中提及
TommyWongww/MemoryNetworks
pytorch
GitHub 中提及
facebookarchive/babi-tasks
pytorch
GitHub 中提及
wujsAct/DeepLearningModels
tf
GitHub 中提及
nbansal90/bAbi_QA
GitHub 中提及
facebook/MemNN
官方
pytorch
GitHub 中提及
google/neural-logic-machines
pytorch
GitHub 中提及
facebookarchive/MazeBase
pytorch
GitHub 中提及
gryan12/chat-bot
tf
GitHub 中提及
stikbuf/Language_Modeling
tf
GitHub 中提及
uwnlp/qrn
tf
GitHub 中提及
huiyinglu/NLP-Deep-Learning-Chatbot
GitHub 中提及
yulangz/End-to-End-Memory-Networks-in-Paddle
paddle
GitHub 中提及
umutguneri/Question-Answering-Assistant
tf
GitHub 中提及
cstghitpku/GateMemN2N
tf
GitHub 中提及
TDeepanshPandey/Chat_Bot
GitHub 中提及
Saurabh2798/Q-A-bot
GitHub 中提及
Monireh2/kg-deductive-reasoner
GitHub 中提及
mustafa-yavuz/chatbot-qa
GitHub 中提及
jojonki/MemoryNetworks
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| question-answering-on-babi | End-To-End Memory Networks | Accuracy (trained on 10k): 93.4% Accuracy (trained on 1k): 86.1% Mean Error Rate: 7.5% |