
摘要
在本研究中,我们使用注意力机制编码器-解码器循环神经网络(Attentional Encoder-Decoder Recurrent Neural Networks)对抽象文本摘要进行建模,并展示了该模型在两个不同语料库上达到了最先进的性能。我们提出了一系列新颖的模型,旨在解决基本架构未能充分建模的摘要生成中的关键问题,如关键词建模、捕捉句子到单词的层次结构以及生成训练时罕见或未见过的单词。我们的研究表明,许多所提出的模型进一步提升了性能。此外,我们还提出了一个新的多句摘要数据集,并为后续研究建立了性能基准。
代码仓库
yunzhusong/AAAI20-PORLHG
pytorch
GitHub 中提及
kashgupta/textsummarization
tf
GitHub 中提及
meghu2791/DeepLearningModels
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| abstractive-text-summarization-on-cnn-daily | LEAD-3 | ROUGE-1: 40.42 ROUGE-2: 17.62 ROUGE-L: 36.67 |
| text-summarization-on-cnn-daily-mail-2 | words-lvt2k-temp-att | ROUGE-1: 35.46 ROUGE-2: 13.30 ROUGE-L: 32.65 |
| text-summarization-on-duc-2004-task-1 | words-lvt5k-1sent | ROUGE-1: 28.61 ROUGE-2: 9.42 ROUGE-L: 25.24 |
| text-summarization-on-gigaword | words-lvt5k-1sent | ROUGE-1: 36.4 ROUGE-2: 17.7 ROUGE-L: 33.71 |