
摘要
在对话情感识别(Emotion Recognition in Conversations, ERC)任务中,提取具有泛化性和鲁棒性的表示是主要挑战之一。为应对这一问题,本文提出一种监督式对抗对比学习(Supervised Adversarial Contrastive Learning, SACL)框架,旨在以监督方式学习具有类别分布结构的表示。SACL采用感知对比的对抗训练策略生成最坏情况样本,并结合联合类别分布对比学习机制,以提取结构化特征。该方法能够有效利用标签级别的特征一致性,同时保留类内细粒度特征。为避免对抗扰动对上下文依赖性数据带来的负面影响,我们进一步设计了一种上下文感知对抗训练(Contextual Adversarial Training, CAT)策略,以从上下文中学习更丰富的特征,提升模型对上下文变化的鲁棒性。在引入CAT机制的框架下,我们构建了一种基于序列的SACL-LSTM模型,用于学习标签一致且上下文鲁棒的特征表示,以应对ERC任务。在三个公开数据集上的实验结果表明,SACL-LSTM在ERC任务中达到了当前最优性能。扩展实验进一步验证了SACL与CAT策略的有效性。
代码仓库
zerohd4869/sacl
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| emotion-recognition-in-conversation-on | SACL-LSTM (one seed) | Accuracy: 69.62 Weighted-F1: 69.70 |
| emotion-recognition-in-conversation-on | SACL-LSTM | Accuracy: 69.08 Weighted-F1: 69.22 |
| emotion-recognition-in-conversation-on-4 | SACL-LSTM (one seed) | Micro-F1: 43.19 Weighted-F1: 40.47 |
| emotion-recognition-in-conversation-on-4 | SACL-LSTM | Micro-F1: 42.21 Weighted-F1: 39.65 |
| emotion-recognition-in-conversation-on-7 | SACL-LSTM | Accuracy: 80.70 Weighted F1: 80.74 |
| emotion-recognition-in-conversation-on-cmu-2 | SACL-LSTM | Accuracy: 38.60 Weighted F1: 25.95 |
| emotion-recognition-in-conversation-on-meld | SACL-LSTM | Accuracy: 67.51 Weighted-F1: 66.45 |
| emotion-recognition-in-conversation-on-meld | SACL-LSTM (one seed) | Accuracy: 67.89 Weighted-F1: 66.86 |