HyperAIHyperAI

Command Palette

Search for a command to run...

基于循环神经网络的联合在线口语理解与语言建模

["name": "Bing Liu" "affiliation": "Carnegie Mellon University Electrical and Computer Engineering" "name": "Ian Lane" "affiliation": "Carnegie Mellon University Electrical and Computer Engineering Language Technologies Institute"]

摘要

说话者意图检测和语义槽填充是对话系统中口语语言理解(SLU)的两个关键任务。在本文中,我们描述了一种递归神经网络(RNN)模型,该模型能够同时执行意图检测、槽填充和语言建模。神经网络模型随着转录话语中的每个词的到来不断更新意图估计,并将其作为联合模型中的上下文特征使用。我们在ATIS基准数据集上对语言模型和在线SLU模型进行了评估。在语言建模任务中,我们的联合模型相比独立训练的语言模型,在困惑度上实现了11.8%的相对降低。在SLU任务中,我们的联合模型在意图检测错误率方面比独立任务训练模型提高了22.3%,而在槽填充F1分数方面略有下降。此外,联合模型在包含噪声语音输入的实际ASR设置下也表现出优越的性能。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于循环神经网络的联合在线口语理解与语言建模 | 论文 | HyperAI超神经