Command Palette
Search for a command to run...
基于循环神经网络的联合在线口语理解与语言建模
基于循环神经网络的联合在线口语理解与语言建模
["name": "Bing Liu" "affiliation": "Carnegie Mellon University Electrical and Computer Engineering" "name": "Ian Lane" "affiliation": "Carnegie Mellon University Electrical and Computer Engineering Language Technologies Institute"]
摘要
说话者意图检测和语义槽填充是对话系统中口语语言理解(SLU)的两个关键任务。在本文中,我们描述了一种递归神经网络(RNN)模型,该模型能够同时执行意图检测、槽填充和语言建模。神经网络模型随着转录话语中的每个词的到来不断更新意图估计,并将其作为联合模型中的上下文特征使用。我们在ATIS基准数据集上对语言模型和在线SLU模型进行了评估。在语言建模任务中,我们的联合模型相比独立训练的语言模型,在困惑度上实现了11.8%的相对降低。在SLU任务中,我们的联合模型在意图检测错误率方面比独立任务训练模型提高了22.3%,而在槽填充F1分数方面略有下降。此外,联合模型在包含噪声语音输入的实际ASR设置下也表现出优越的性能。