4 个月前

基于话语级注意力机制的双向循环神经网络的对话分析

基于话语级注意力机制的双向循环神经网络的对话分析

摘要

最近的研究表明,在对话行为识别中,前导话语的上下文对于分类后续话语非常重要。研究显示,当考虑上下文时,性能会迅速提高。我们提出了一种基于话语级注意力机制的双向循环神经网络(Utt-Att-BiRNN)模型,用于分析前导话语对当前话语分类的重要性。在我们的设置中,双向循环神经网络(BiRNN)接收当前和前导话语的输入集。我们的模型在所使用的语料库上优于仅以前导话语作为上下文的先前模型。本文的另一贡献在于发现每个前导话语中包含的信息量,以用于分类后续话语,并证明基于上下文的学习不仅提高了性能,还增强了分类的信心。我们使用字符级和词级特征来表示话语。结果分别展示了字符特征表示、词特征表示以及两者的集成模型的表现。我们发现,在分类短句时,最近的前导话语具有更高的贡献度。

基准测试

基准方法指标
dialogue-act-classification-on-switchboardUtt-Att-BiRNN
Accuracy: 77.42

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于话语级注意力机制的双向循环神经网络的对话分析 | 论文 | HyperAI超神经