
摘要
我们研究数据到文本生成任务,该任务旨在从非语言输入生成文本输出。本文重点关注长文本生成,即包含多个段落的文档生成,并提出一种引入规划组件的神经模型,该组件负责以连贯且有意义的方式组织高层信息。我们采用结构化变分模型,逐步推断隐式规划方案,同时将规划与生成步骤交替进行。文本生成过程基于先前的变分决策以及已生成的文本内容进行条件建模。在两个数据到文本基准数据集(RotoWire 和 MLB)上的实验结果表明,我们的模型显著优于多个强基线方法,并在训练数据有限(例如仅几百个样本)的情况下仍表现出良好的样本效率。
代码仓库
ratishsp/data2text-seq-plan-py
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| data-to-text-generation-on-mlb-dataset | SeqPlan | Precision: 95.9 count: 28.9 |
| data-to-text-generation-on-mlb-dataset-1 | SeqPlan | Precision: 43.3 Recall: 53.5 |
| data-to-text-generation-on-mlb-dataset-2 | SeqPlan | BLEU: 14.29 |
| data-to-text-generation-on-mlb-dataset-3 | SeqPlan | DLD: 22.7 |
| data-to-text-generation-on-rotowire-relation | SeqPlan | Precision: 97.6 count: 46.7 |