
摘要
本文针对对话中的话语级情感识别任务,引入常识知识进行建模。我们提出了COSMIC框架,该框架融合了常识知识中的多种要素,包括心理状态、事件以及因果关系,并在此基础上学习对话参与者之间的交互关系。现有的最先进方法在上下文传播、情感转变检测以及区分相关情感类别方面常面临挑战。通过学习具有区分性的常识表征,COSMIC有效缓解了上述问题,并在四个不同的基准对话情感识别数据集上取得了新的最先进性能。相关代码已开源,地址为:https://github.com/declare-lab/conv-emotion。
代码仓库
declare-lab/conv-emotion
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| emotion-recognition-in-conversation-on | COSMIC | Weighted-F1: 65.30 |
| emotion-recognition-in-conversation-on-3 | COSMIC | Macro F1: 51.05 Micro-F1: 58.48 |
| emotion-recognition-in-conversation-on-4 | COSMIC | Weighted-F1: 38.11 |
| emotion-recognition-in-conversation-on-meld | COSMIC | Weighted-F1: 65.21 |