
摘要
基于注意力机制的循环神经网络模型在联合意图识别与槽位填充任务中已取得当前最优性能,但其注意力权重是相互独立的。鉴于槽位与意图之间存在强关联性,本文提出一种槽门(slot gate)机制,旨在学习意图与槽位注意力向量之间的关联关系,通过全局优化以获得更优的语义框架结果。实验结果表明,与基准数据集ATIS和Snips上的注意力模型相比,所提出的模型在句子级语义框架准确率上分别实现了4.2%和1.9%的相对提升。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| intent-detection-on-atis | Slot-Gated BLSTM with Attension | Accuracy: 93.6 |
| intent-detection-on-snips | Slot-Gated BLSTM with Attension | Accuracy: 97.00 |
| slot-filling-on-atis | Slot-Gated BLSTM with Attension | F1: 0.948 |
| slot-filling-on-snips | Slot-Gated BLSTM with Attension | F1: 88.8 |