3 个月前

PRIMERA:基于金字塔的掩码句子预训练用于多文档摘要

PRIMERA:基于金字塔的掩码句子预训练用于多文档摘要

摘要

我们提出PRIMERA,一种面向多文档摘要任务的预训练模型,旨在减少对特定数据集架构以及大量标注微调数据的依赖。PRIMERA采用我们新提出的预训练目标,旨在教会模型在不同文档之间建立关联并整合信息。同时,该模型利用高效的编码器-解码器Transformer结构,简化对拼接输入文档的处理流程。在涵盖三个不同领域的6个多文档摘要数据集上,PRIMERA在零样本(zero-shot)、少样本(few-shot)及全监督(full-supervised)等多种设置下进行了广泛实验,结果表明其在大多数设置下均显著优于当前主流的特定数据集模型及预训练模型。代码与预训练模型已开源,可访问 https://github.com/allenai/PRIMER 获取。

代码仓库

allenai/open-mds
pytorch
GitHub 中提及
allenai/primer
官方
pytorch

基准测试

基准方法指标
multi-document-summarization-on-multi-newsPRIMER
ROUGE-1: 49.9
ROUGE-2: 21.1
ROUGE-L: 25.9
multi-document-summarization-on-wcepPRIMER
ROUGE-1: 46.1
ROUGE-2: 25.2
ROUGE-L: 37.9
text-summarization-on-arxiv-summarizationPRIMER
ROUGE-1: 47.6
ROUGE-2: 20.8
ROUGE-L: 42.6

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
PRIMERA:基于金字塔的掩码句子预训练用于多文档摘要 | 论文 | HyperAI超神经