
摘要
神经编码器-解码器模型在自然语言生成任务中取得了显著成功。然而,抽象式摘要的实际应用必须考虑一个额外的约束条件,即生成的摘要不应超过预期的长度。本文提出了一种简单而有效的扩展方法,对正弦位置编码(Vaswani等人,2017)进行改进,以使神经编码器-解码器模型能够保持长度约束。与以往研究中学习表示每个长度的嵌入不同,所提出的方法即使目标长度未出现在训练数据中,也能生成任意长度的文本。实验结果表明,该方法不仅能够控制生成长度,还能提高ROUGE分数。
代码仓库
takase/control-length
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| text-summarization-on-duc-2004-task-1 | Transformer+LRPE+PE+Re-ranking+Ensemble | ROUGE-1: 32.85 ROUGE-2: 11.78 ROUGE-L: 28.52 |