
摘要
机器理解(MC)是指针对给定的上下文段落回答问题,这需要对上下文和问题之间的复杂交互进行建模。近年来,注意力机制已成功应用于机器理解领域。通常这些方法利用注意力机制集中关注上下文的一小部分,并用固定大小的向量对其进行总结,同时在时间上耦合注意力,或者经常形成单向注意力。本文中,我们介绍了一种双向注意流(Bi-Directional Attention Flow, BIDAF)网络,这是一种多阶段层次化过程,能够在不同粒度级别表示上下文,并通过双向注意流机制获得查询感知的上下文表示,而无需过早总结。我们的实验评估表明,该模型在斯坦福问答数据集(SQuAD)和CNN/DailyMail完形填空测试中取得了最先进的结果。
代码仓库
white127/squad-2.0-bidaf
tf
GitHub 中提及
shmsw25/qa-transfer
tf
GitHub 中提及
minstar/BIDAF
tf
GitHub 中提及
allenai/bi-att-flow
官方
tf
GitHub 中提及
yugrocks/Question-Answering-with-BIDAF
tf
GitHub 中提及
rajatgermany/qa-nlp
pytorch
GitHub 中提及
GauthierDmn/question_answering
pytorch
GitHub 中提及
WarruzuEndo/BiDAF_mindspore
mindspore
GitHub 中提及
xiaobaicxy/Bidaf_SQuAD_MC_Pytorch
pytorch
GitHub 中提及
surekhamedapati/NLPA_NEO
pytorch
GitHub 中提及
techit-limtiyakul/bidirectional-attention-flow
pytorch
GitHub 中提及
galsang/BiDAF-pytorch
pytorch
GitHub 中提及
baidu/DuReader
tf
GitHub 中提及
davidgolub/QuestionGeneration
pytorch
GitHub 中提及
suryaiyer/squad-bidaf
pytorch
GitHub 中提及
Deepak-Work/Passage_Retrieval
tf
GitHub 中提及
Shravsridhar/NLP-Question-Answer-Model
GitHub 中提及
kokikwbt/deepsect
GitHub 中提及
tikyau/bidaf-quick-test
tf
GitHub 中提及
lmn-extracts/dcn_plus
tf
GitHub 中提及
Shravsridhar/QA-Model-INFO-7374
GitHub 中提及
dsouzadaniel/BiDAF
pytorch
GitHub 中提及
distractor-generation/dg_survey
GitHub 中提及
ElizaLo/Question-Answering-based-on-SQuAD
pytorch
GitHub 中提及
ghus75/Question_Answering
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| open-domain-question-answering-on-quasar | BiDAF | EM (Quasar-T): 25.9 F1 (Quasar-T): 28.5 |
| question-answering-on-cnn-daily-mail | BiDAF | CNN: 76.9 Daily Mail: 79.6 |
| question-answering-on-ms-marco | BiDaF Baseline | BLEU-1: 10.64 Rouge-L: 23.96 |
| question-answering-on-narrativeqa | BiDAF | BLEU-1: 33.45 BLEU-4: 15.69 METEOR: 15.68 Rouge-L: 36.74 |
| question-answering-on-squad11 | BiDAF (single model) | EM: 67.974 F1: 77.323 |
| question-answering-on-squad11 | BiDAF (ensemble) | EM: 73.744 F1: 81.525 |
| question-answering-on-squad11-dev | BIDAF (single) | EM: 67.7 F1: 77.3 |