3 个月前

CAE:用于缓解SLU槽填充任务中类别不平衡问题的机制

CAE:用于缓解SLU槽填充任务中类别不平衡问题的机制

摘要

语音语言理解(Spoken Language Understanding, SLU)是自然语言处理领域中一项广泛应用的任务。在预训练模型BERT取得成功的基础上,自然语言理解(NLU)任务通常通过意图分类(Intent Classification)与槽位填充(Slot Filling)两项子任务来实现,并取得了显著的性能提升。然而,NLU任务中类别不平衡问题尚未得到充分研究,而此类问题在语义解析(Semantic Parsing)数据集中却频繁出现。因此,本研究聚焦于缓解这一问题。为此,本文提出了一种基于BERT的新型架构——联合BERT匿名实体分类(JointBERT-CAE),该模型在三个语义解析数据集(ATIS、Snips、ATIS越南语版)以及一个广为人知的命名实体识别(Named Entity Recognition, NER)数据集CoNLL2003上均取得了性能提升。在JointBERT-CAE架构中,我们采用多任务联合学习策略,将传统的槽位填充任务分解为两个子任务:一是通过序列标注技术检测匿名实体,二是对识别出的匿名实体进行分类。实验结果表明,与标准BERT模型相比,JointBERT-CAE在所有测试数据集上均表现出显著的性能改进,同时展现出良好的可扩展性,适用于其他依赖序列标注技术的自然语言处理任务。

基准测试

基准方法指标
intent-detection-on-atisJointBERT-CAE
Accuracy: 97.5
intent-detection-on-snipsJointBERT-CAE
Accuracy: 98.3
intent-detection-on-vietnamese-intentJointBERT-CAE
Intent Accuracy: 97.7
slot-filling-on-atisJointBERT-CAE
F1: 0.961
slot-filling-on-snipsJointBERT-CAE
F1: 97.0
slot-filling-on-vietnamese-intent-detectionJointBERT-CAE
Slot F1: 95.5

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
CAE:用于缓解SLU槽填充任务中类别不平衡问题的机制 | 论文 | HyperAI超神经