
摘要
人类在生成对话回应时,依赖于对话元素及其上下文之间的语义与功能依赖关系,包括指代关系(coreference relation)等。本文研究如何仅基于注意力机制(attention)来匹配回应与其多轮对话上下文。我们的方法受到近期提出的机器翻译中的Transformer模型(Vaswani et al., 2017)的启发,并在注意力机制上进行了两方面的扩展。首先,我们仅通过堆叠的自注意力机制(stacked self-attention)构建不同粒度文本片段的表示;其次,我们尝试通过上下文与回应之间的跨注意力机制,提取真正匹配的文本片段对。我们将这两种注意力机制统一整合到一个神经网络框架中。在两个大规模多轮回应选择任务上的实验结果表明,所提出的模型显著优于现有的最先进模型。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| conversational-response-selection-on-douban-1 | DAM | MAP: 0.550 MRR: 0.601 P@1: 0.427 R10@1: 0.254 R10@2: 0.410 R10@5: 0.757 |
| conversational-response-selection-on-rrs | DAM | MAP: 0.511 MRR: 0.534 P@1: 0.347 R10@1: 0.308 R10@2: 0.457 R10@5: 0.751 |
| conversational-response-selection-on-ubuntu-1 | DAM | R10@1: 0.767 R10@2: 0.874 R10@5: 0.969 R2@1: 0.938 |