
摘要
近年来,深度神经网络在文本摘要生成方面取得了显著的成功。然而,对于它们为何表现如此出色以及如何进一步改进,目前尚缺乏清晰的理解。本文旨在更好地理解不同类型的模型架构、可迁移知识和学习方案如何有助于神经抽取式摘要系统的性能提升。此外,基于我们的观察和分析,我们发现了一种有效的方法来改进现有的框架,并在CNN/DailyMail数据集上大幅提升了性能,达到了当前最佳的结果。希望我们的工作能为未来在抽取式摘要领域的研究提供更多线索。
代码仓库
zhdbwe/Paper-DailyReading
tf
GitHub 中提及
maszhongming/Effective_Extractive_Summarization
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| extractive-document-summarization-on-cnn | PNBERT | ROUGE-1: 42.69 ROUGE-2: 19.60 ROUGE-L: 38.85 |