4 个月前

基于循环神经网络的联合在线口语理解与语言建模

基于循环神经网络的联合在线口语理解与语言建模

摘要

说话者意图检测和语义槽填充是对话系统中口语语言理解(SLU)的两个关键任务。在本文中,我们描述了一种递归神经网络(RNN)模型,该模型能够同时执行意图检测、槽填充和语言建模。神经网络模型随着转录话语中的每个词的到来不断更新意图估计,并将其作为联合模型中的上下文特征使用。我们在ATIS基准数据集上对语言模型和在线SLU模型进行了评估。在语言建模任务中,我们的联合模型相比独立训练的语言模型,在困惑度上实现了11.8%的相对降低。在SLU任务中,我们的联合模型在意图检测错误率方面比独立任务训练模型提高了22.3%,而在槽填充F1分数方面略有下降。此外,联合模型在包含噪声语音输入的实际ASR设置下也表现出优越的性能。

基准测试

基准方法指标
intent-detection-on-atisJoint model with recurrent slot label context
Accuracy: 98.40
slot-filling-on-atisJoint model with recurrent slot label context
F1: 0.9464

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于循环神经网络的联合在线口语理解与语言建模 | 论文 | HyperAI超神经