4 个月前

使用预训练编码器进行文本摘要

使用预训练编码器进行文本摘要

摘要

双向编码器表示模型(BERT)代表了预训练语言模型的最新进展,这些模型最近在广泛的自然语言处理任务中取得了显著进步。本文展示了如何将 BERT 有效应用于文本摘要,并提出了一种适用于抽取式和生成式模型的通用框架。我们引入了一种基于 BERT 的新型文档级编码器,该编码器能够表达文档的语义并为其句子获得表示。我们的抽取式模型在此编码器的基础上构建,通过堆叠多个跨句 Transformer 层来实现。对于生成式摘要,我们提出了一种新的微调策略,该策略为编码器和解码器采用不同的优化器,以缓解两者之间的不匹配问题(前者已进行预训练而后者未进行)。我们还证明了两阶段微调方法可以进一步提高生成摘要的质量。在三个数据集上的实验表明,我们的模型在抽取式和生成式设置中均达到了最先进的效果。我们的代码可在 https://github.com/nlpyang/PreSumm 获取。

代码仓库

nguyenphamvan/BertSum-master
pytorch
GitHub 中提及
aikawasho/BertSum
pytorch
GitHub 中提及
nachotp/BertCommentSum
pytorch
GitHub 中提及
manshri/tesum
pytorch
GitHub 中提及
chesterdu/contrastive_summary
pytorch
GitHub 中提及
alebryvas/berk266
pytorch
GitHub 中提及
thangarani/bertsum
pytorch
GitHub 中提及
ionnoant/DS8008-final-project
pytorch
GitHub 中提及
raqoon886/KoBertSum
pytorch
GitHub 中提及
raqoon886/KorBertSum
pytorch
GitHub 中提及
nlpyang/PreSumm
官方
pytorch
GitHub 中提及
olivia-fsm/p2mcq
pytorch
GitHub 中提及

基准测试

基准方法指标
abstractive-text-summarization-on-cnn-dailyBertSumExtAbs
ROUGE-1: 42.13
ROUGE-2: 19.6
ROUGE-L: 39.18
document-summarization-on-cnn-daily-mailBertSumExt
ROUGE-1: 43.85
ROUGE-2: 20.34
ROUGE-L: 39.9
text-summarization-on-x-sumBertSumExtAbs
ROUGE-1: 38.81
ROUGE-2: 16.50
ROUGE-3: 31.27

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
使用预训练编码器进行文本摘要 | 论文 | HyperAI超神经