HyperAIHyperAI

Command Palette

Search for a command to run...

使用预训练编码器进行文本摘要

Yang Liu Mirella Lapata

摘要

双向编码器表示模型(BERT)代表了预训练语言模型的最新进展,这些模型最近在广泛的自然语言处理任务中取得了显著进步。本文展示了如何将 BERT 有效应用于文本摘要,并提出了一种适用于抽取式和生成式模型的通用框架。我们引入了一种基于 BERT 的新型文档级编码器,该编码器能够表达文档的语义并为其句子获得表示。我们的抽取式模型在此编码器的基础上构建,通过堆叠多个跨句 Transformer 层来实现。对于生成式摘要,我们提出了一种新的微调策略,该策略为编码器和解码器采用不同的优化器,以缓解两者之间的不匹配问题(前者已进行预训练而后者未进行)。我们还证明了两阶段微调方法可以进一步提高生成摘要的质量。在三个数据集上的实验表明,我们的模型在抽取式和生成式设置中均达到了最先进的效果。我们的代码可在 https://github.com/nlpyang/PreSumm 获取。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
使用预训练编码器进行文本摘要 | 论文 | HyperAI超神经