3 个月前

BART:用于自然语言生成、翻译与理解的去噪序列到序列预训练

BART:用于自然语言生成、翻译与理解的去噪序列到序列预训练

摘要

我们提出BART,一种用于预训练序列到序列模型的去噪自编码器。BART通过(1)使用任意的噪声函数对文本进行破坏,以及(2)学习一个模型以重建原始文本的方式进行训练。其架构采用标准的基于Transformer的神经机器翻译模型,尽管结构简单,但可被视为对BERT(得益于双向编码器)、GPT(采用从左到右的解码器)以及诸多近期预训练方法的统一与推广。我们评估了多种噪声策略,发现最佳效果来自于随机打乱原始句子顺序,并结合一种新颖的“填空式”噪声机制——即用单个掩码标记(mask token)替换文本中的连续片段。BART在微调用于文本生成任务时表现出色,同时在理解类任务中也表现良好。在GLUE和SQuAD基准上,其性能与RoBERTa相当,且在训练资源相近的情况下达到相同水平;在多种抽象型对话、问答及摘要任务中,BART取得了新的最先进成果,ROUGE得分提升最高达6分。此外,在仅使用目标语言预训练的前提下,BART在机器翻译任务中相较回译(back-translation)系统实现了1.1的BLEU分数提升。我们还报告了消融实验,通过在BART框架内复现其他预训练范式,以更准确地评估影响下游任务性能的关键因素。

代码仓库

shijx12/kqapro_baselines
pytorch
GitHub 中提及
W4ngatang/qags
pytorch
GitHub 中提及
tangg555/sabart
pytorch
GitHub 中提及
awalther/scibart
pytorch
GitHub 中提及
jiacheng-xu/text-sum-uncertainty
pytorch
GitHub 中提及
chakravarthi-v/Polaroid-1
pytorch
GitHub 中提及
facebookresearch/GENRE
pytorch
GitHub 中提及
mcao610/Factual-Error-Correction
pytorch
GitHub 中提及
microsoft/fastseq
pytorch
GitHub 中提及
jongwooko/nash-pruning-official
pytorch
GitHub 中提及
vgaraujov/seq2seq-spanish-plms
pytorch
GitHub 中提及
xieyxclack/factual_coco
pytorch
GitHub 中提及
nlmatics/llmsherpa
GitHub 中提及
shmsw25/bart-closed-book-qa
pytorch
GitHub 中提及
thefonseca/factorsum
pytorch
GitHub 中提及
zhdbwe/Paper-DailyReading
tf
GitHub 中提及
KushGrandhi/Polaroid
pytorch
GitHub 中提及
john-bradshaw/rxn-lm
pytorch
GitHub 中提及
vinayak19th/Brevis-2.0
GitHub 中提及
udnet96/BART-various-finetune
pytorch
GitHub 中提及
huggingface/transformers
pytorch
GitHub 中提及
dawn0815/UniSA
pytorch
GitHub 中提及
facebookresearch/bart_ls
pytorch
GitHub 中提及
skt-ai/kobart
GitHub 中提及
qywu/memformers
pytorch
GitHub 中提及
i2r-simmc/i2r-simmc-2020
pytorch
GitHub 中提及
huangxt39/BART_on_COVID_dialogue
pytorch
GitHub 中提及
microsoft/Table-Pretraining
pytorch
GitHub 中提及
maanvithag/thinkai
GitHub 中提及
timrozday/spl-indications-bart
pytorch
GitHub 中提及
HHousen/TransformerSum
pytorch
GitHub 中提及
wyu97/Easy-use-BART
pytorch
GitHub 中提及

基准测试

基准方法指标
abstractive-text-summarization-on-cnn-dailyBART
ROUGE-1: 44.16
ROUGE-2: 21.28
ROUGE-L: 40.90
open-domain-question-answering-on-eli5BART
Rouge-1: 30.6
Rouge-2: 6.2
Rouge-L: 24.3
question-answering-on-squad11-devBART Base (with text infilling)
F1: 90.8
text-summarization-on-x-sumBART
ROUGE-1: 45.14
ROUGE-2: 22.27
ROUGE-3: 37.25

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
BART:用于自然语言生成、翻译与理解的去噪序列到序列预训练 | 论文 | HyperAI超神经