Mike LewisYinhan LiuNaman GoyalMarjan GhazvininejadAbdelrahman MohamedOmer LevyVes StoyanovLuke Zettlemoyer

摘要
我们提出BART,一种用于预训练序列到序列模型的去噪自编码器。BART通过(1)使用任意的噪声函数对文本进行破坏,以及(2)学习一个模型以重建原始文本的方式进行训练。其架构采用标准的基于Transformer的神经机器翻译模型,尽管结构简单,但可被视为对BERT(得益于双向编码器)、GPT(采用从左到右的解码器)以及诸多近期预训练方法的统一与推广。我们评估了多种噪声策略,发现最佳效果来自于随机打乱原始句子顺序,并结合一种新颖的“填空式”噪声机制——即用单个掩码标记(mask token)替换文本中的连续片段。BART在微调用于文本生成任务时表现出色,同时在理解类任务中也表现良好。在GLUE和SQuAD基准上,其性能与RoBERTa相当,且在训练资源相近的情况下达到相同水平;在多种抽象型对话、问答及摘要任务中,BART取得了新的最先进成果,ROUGE得分提升最高达6分。此外,在仅使用目标语言预训练的前提下,BART在机器翻译任务中相较回译(back-translation)系统实现了1.1的BLEU分数提升。我们还报告了消融实验,通过在BART框架内复现其他预训练范式,以更准确地评估影响下游任务性能的关键因素。
代码仓库
shijx12/kqapro_baselines
pytorch
GitHub 中提及
W4ngatang/qags
pytorch
GitHub 中提及
tangg555/sabart
pytorch
GitHub 中提及
awalther/scibart
pytorch
GitHub 中提及
hihellohowareyou/RESREF_Chatbot_data_for_Korean
pytorch
GitHub 中提及
jiacheng-xu/text-sum-uncertainty
pytorch
GitHub 中提及
chakravarthi-v/Polaroid-1
pytorch
GitHub 中提及
bayer-science-for-a-better-life/data2text-bioleaflets
pytorch
GitHub 中提及
facebookresearch/GENRE
pytorch
GitHub 中提及
mcao610/Factual-Error-Correction
pytorch
GitHub 中提及
microsoft/fastseq
pytorch
GitHub 中提及
jongwooko/nash-pruning-official
pytorch
GitHub 中提及
cosmoquester/2021-dialogue-summary-competition
pytorch
GitHub 中提及
vgaraujov/seq2seq-spanish-plms
pytorch
GitHub 中提及
xieyxclack/factual_coco
pytorch
GitHub 中提及
nlmatics/llmsherpa
GitHub 中提及
fwbrandao/Abstractive_Summarisation
GitHub 中提及
asahi417/lm-question-generation
GitHub 中提及
tanyuqian/aspect-based-summarization
pytorch
GitHub 中提及
cosmoquester/transformers-bart-pretrain
tf
GitHub 中提及
shmsw25/bart-closed-book-qa
pytorch
GitHub 中提及
thefonseca/factorsum
pytorch
GitHub 中提及
khushsi/Finetuning_BART_for_FACET_Summarization
pytorch
GitHub 中提及
priyamtejaswin/multistep-retrieve-summarize
pytorch
GitHub 中提及
zhdbwe/Paper-DailyReading
tf
GitHub 中提及
KushGrandhi/Polaroid
pytorch
GitHub 中提及
john-bradshaw/rxn-lm
pytorch
GitHub 中提及
allenai/scientific-claim-generation
pytorch
GitHub 中提及
vinayak19th/Brevis-2.0
GitHub 中提及
udnet96/BART-various-finetune
pytorch
GitHub 中提及
huggingface/transformers
pytorch
GitHub 中提及
dawn0815/UniSA
pytorch
GitHub 中提及
facebookresearch/bart_ls
pytorch
GitHub 中提及
skt-ai/kobart
GitHub 中提及
qywu/memformers
pytorch
GitHub 中提及
i2r-simmc/i2r-simmc-2020
pytorch
GitHub 中提及
Mind23-2/MindCode-160
mindspore
huangxt39/BART_on_COVID_dialogue
pytorch
GitHub 中提及
microsoft/Table-Pretraining
pytorch
GitHub 中提及
2023-MindSpore-1/ms-code-149
mindspore
maanvithag/thinkai
GitHub 中提及
timrozday/spl-indications-bart
pytorch
GitHub 中提及
HHousen/TransformerSum
pytorch
GitHub 中提及
wyu97/Easy-use-BART
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| abstractive-text-summarization-on-cnn-daily | BART | ROUGE-1: 44.16 ROUGE-2: 21.28 ROUGE-L: 40.90 |
| open-domain-question-answering-on-eli5 | BART | Rouge-1: 30.6 Rouge-2: 6.2 Rouge-L: 24.3 |
| question-answering-on-squad11-dev | BART Base (with text infilling) | F1: 90.8 |
| text-summarization-on-x-sum | BART | ROUGE-1: 45.14 ROUGE-2: 22.27 ROUGE-3: 37.25 |