4 个月前

微调BERT以实现抽取式摘要生成

微调BERT以实现抽取式摘要生成

摘要

BERT(一种预训练的Transformer模型)在多个自然语言处理任务中取得了突破性的性能。本文介绍了BERTSUM,这是BERT的一个简单变体,用于抽取式摘要生成。我们的系统在CNN/Dailymail数据集上达到了当前最佳水平,在ROUGE-L指标上比之前表现最好的系统高出1.65分。重现我们结果的代码可在https://github.com/nlpyang/BertSum 获取。

代码仓库

johnnyb1509/2020_VBDI_DL
tf
GitHub 中提及
nguyenphamvan/BertSum-master
pytorch
GitHub 中提及
vsubramaniam851/typ_embed
pytorch
GitHub 中提及
aikawasho/BertSum
pytorch
GitHub 中提及
thangarani/bertsum
pytorch
GitHub 中提及
raqoon886/KoBertSum
pytorch
GitHub 中提及
raqoon886/KorBertSum
pytorch
GitHub 中提及
nlpyang/BertSum
官方
pytorch
GitHub 中提及
HHousen/TransformerSum
pytorch
GitHub 中提及
TidalPaladin/neural-summarizer
pytorch
GitHub 中提及

基准测试

基准方法指标
document-summarization-on-cnn-daily-mailBERTSUM+Transformer
ROUGE-1: 43.25
ROUGE-2: 20.24
ROUGE-L: 39.63

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
微调BERT以实现抽取式摘要生成 | 论文 | HyperAI超神经