
摘要
当前自然语言生成领域的预训练工作对下游任务中的暴露偏差问题关注较少。为了解决这一问题,我们提出了一种增强的多流序列到序列预训练和微调框架,命名为ERNIE-GEN。该框架通过引入填充生成机制和噪声感知生成方法,缩小了训练与推理之间的差异。为了使生成内容更接近人类的写作模式,该框架引入了一种按片段生成的流程,训练模型连续预测语义完整的片段,而不是逐词预测。与现有的预训练方法不同,ERNIE-GEN采用了多粒度目标采样来构建预训练数据,从而增强了编码器和解码器之间的相关性。实验结果表明,在包括抽象摘要(Gigaword和CNN/DailyMail)、问题生成(SQuAD)、对话生成(Persona-Chat)和生成式问答(CoQA)等一系列语言生成任务中,ERNIE-GEN在使用较少的预训练数据和参数的情况下取得了最先进的成果。
代码仓库
https-github-com-GiangHoang9912/ernie-gen
paddle
GitHub 中提及
Sharpiless/Versailles-text-generation-with-paddlepaddle
paddle
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| abstractive-text-summarization-on-cnn-daily | ERNIE-GENLARGE (large-scale text corpora) | ROUGE-1: 44.31 ROUGE-2: 21.35 ROUGE-L: 41.60 |
| abstractive-text-summarization-on-cnn-daily | ERNIE-GENBASE | ROUGE-1: 42.30 ROUGE-2: 19.92 ROUGE-L: 39.68 |
| abstractive-text-summarization-on-cnn-daily | ERNIE-GENLARGE | ROUGE-1: 44.02 ROUGE-2: 21.17 ROUGE-L: 41.26 |
| generative-question-answering-on-coqa | ERNIE-GEN | F1-Score: 84.5 |
| question-generation-on-squad11 | ERNIE-GENLARGE (beam size=5) | BLEU-4: 25.41 |
| text-summarization-on-gigaword | ERNIE-GENLARGE (large-scale text corpora) | ROUGE-1: 39.46 ROUGE-2: 20.34 ROUGE-L: 36.74 |
| text-summarization-on-gigaword | ERNIE-GENBASE | ROUGE-1: 38.83 ROUGE-2: 20.04 ROUGE-L: 36.20 |
| text-summarization-on-gigaword | ERNIE-GENLARGE | ROUGE-1: 39.25 ROUGE-2: 20.25 ROUGE-L: 36.53 |
| text-summarization-on-gigaword-10k | ERNIE-GENLARGE | ROUGE-1: 35.05 ROUGE-2: 16.10 ROUGE-L: 32.50 |
| text-summarization-on-gigaword-10k | ERNIE-GENBASE | ROUGE-1: 33.75 ROUGE-2: 15.23 ROUGE-L: 31.35 |
| text-summarization-on-gigaword-10k | ERNIE-GENLARGE (large-scale text corpora) | ROUGE-1: 35.51 ROUGE-2: 16.79 ROUGE-L: 33.23 |