4 个月前

ERNIE-GEN:一种增强的多流预训练和微调框架用于自然语言生成

ERNIE-GEN:一种增强的多流预训练和微调框架用于自然语言生成

摘要

当前自然语言生成领域的预训练工作对下游任务中的暴露偏差问题关注较少。为了解决这一问题,我们提出了一种增强的多流序列到序列预训练和微调框架,命名为ERNIE-GEN。该框架通过引入填充生成机制和噪声感知生成方法,缩小了训练与推理之间的差异。为了使生成内容更接近人类的写作模式,该框架引入了一种按片段生成的流程,训练模型连续预测语义完整的片段,而不是逐词预测。与现有的预训练方法不同,ERNIE-GEN采用了多粒度目标采样来构建预训练数据,从而增强了编码器和解码器之间的相关性。实验结果表明,在包括抽象摘要(Gigaword和CNN/DailyMail)、问题生成(SQuAD)、对话生成(Persona-Chat)和生成式问答(CoQA)等一系列语言生成任务中,ERNIE-GEN在使用较少的预训练数据和参数的情况下取得了最先进的成果。

基准测试

基准方法指标
abstractive-text-summarization-on-cnn-dailyERNIE-GENLARGE (large-scale text corpora)
ROUGE-1: 44.31
ROUGE-2: 21.35
ROUGE-L: 41.60
abstractive-text-summarization-on-cnn-dailyERNIE-GENBASE
ROUGE-1: 42.30
ROUGE-2: 19.92
ROUGE-L: 39.68
abstractive-text-summarization-on-cnn-dailyERNIE-GENLARGE
ROUGE-1: 44.02
ROUGE-2: 21.17
ROUGE-L: 41.26
generative-question-answering-on-coqaERNIE-GEN
F1-Score: 84.5
question-generation-on-squad11ERNIE-GENLARGE (beam size=5)
BLEU-4: 25.41
text-summarization-on-gigawordERNIE-GENLARGE (large-scale text corpora)
ROUGE-1: 39.46
ROUGE-2: 20.34
ROUGE-L: 36.74
text-summarization-on-gigawordERNIE-GENBASE
ROUGE-1: 38.83
ROUGE-2: 20.04
ROUGE-L: 36.20
text-summarization-on-gigawordERNIE-GENLARGE
ROUGE-1: 39.25
ROUGE-2: 20.25
ROUGE-L: 36.53
text-summarization-on-gigaword-10kERNIE-GENLARGE
ROUGE-1: 35.05
ROUGE-2: 16.10
ROUGE-L: 32.50
text-summarization-on-gigaword-10kERNIE-GENBASE
ROUGE-1: 33.75
ROUGE-2: 15.23
ROUGE-L: 31.35
text-summarization-on-gigaword-10kERNIE-GENLARGE (large-scale text corpora)
ROUGE-1: 35.51
ROUGE-2: 16.79
ROUGE-L: 33.23

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
ERNIE-GEN:一种增强的多流预训练和微调框架用于自然语言生成 | 论文 | HyperAI超神经