
摘要
我们通过计算语用学的技术手段提高了条件文本生成模型的信息丰富性。这些技术将语言生成视为说话者和听者之间的一种博弈,在这种博弈中,说话者应当生成能够让听者正确识别出所描述原始输入的输出文本。尽管此类方法在认知科学和基于场景的语言学习中被广泛采用,但在更为传统的语言生成任务中却较少受到关注。我们考虑了两种用于文本生成的语用建模方法:一种是通过信息保留来施加语用规则,另一种则是通过显式建模干扰项来施加语用规则。研究发现,这两种方法能够提升现有强大的抽象摘要生成系统和从结构化意义表示生成文本系统的性能。
代码仓库
reallygooday/60daysofudacity
pytorch
GitHub 中提及
sIncerass/prag_generation
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| data-to-text-generation-on-e2e-nlg-challenge | S_1^R | BLEU: 68.60 CIDEr: 2.37 METEOR: 45.25 NIST: 8.73 ROUGE-L: 70.82 |