
摘要
多轮检索式对话是构建智能对话系统的重要任务。现有研究主要聚焦于在多个粒度层次上将候选回复与每一条上下文语句进行匹配,然而这一方法忽略了使用过多上下文信息所带来的副作用。虽然上下文语句蕴含丰富的信息,有助于提取更多匹配特征,但同时也引入了噪声信号和无关信息。本文针对过度使用上下文语句所带来的负面影响进行了分析,并提出了一种多跳选择网络(Multi-hop Selector Network, MSN)以缓解该问题。具体而言,MSN首先通过一个多跳选择机制筛选出与对话相关的语句作为有效上下文;随后,模型将经过过滤的上下文与候选回复进行匹配,从而获得匹配得分。实验结果表明,MSN在三个公开的多轮对话数据集上均优于若干当前先进的方法。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| conversational-response-selection-on-douban-1 | MSN | MAP: 0.587 MRR: 0.632 P@1: 0.470 R10@1: 0.295 R10@2: 0.452 R10@5: 0.788 |
| conversational-response-selection-on-e | MSN | R10@1: 0.606 R10@2: 0.770 R10@5: 0.937 |
| conversational-response-selection-on-rrs | MSN | MAP: 0.550 MRR: 0.563 P@1: 0.383 R10@1: 0.343 R10@2: 0.498 R10@5: 0.798 |
| conversational-response-selection-on-ubuntu-1 | MSN | R10@1: 0.800 R10@2: 0.899 R10@5: 0.978 |