
摘要
端到端的任务导向对话系统通常面临将知识库纳入其中的挑战。本文提出了一种新颖而简单的端到端可微模型,称为记忆到序列(Memory-to-Sequence, Mem2Seq),以解决这一问题。Mem2Seq 是首个结合多跳注意力机制和指针网络思想的神经生成模型。我们通过实证研究展示了 Mem2Seq 如何控制每个生成步骤,以及其多跳注意力机制如何帮助学习记忆之间的相关性。此外,我们的模型具有较高的通用性,无需复杂的任务特定设计。因此,我们证明了 Mem2Seq 可以更快地训练,并在三个不同的任务导向对话数据集上达到最先进的性能。
代码仓库
HLTCHKUST/Mem2Seq
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| task-oriented-dialogue-systems-on-kvret | Mem2Seq | BLEU: 12.6 Entity F1: 33.4 |