3 个月前

Joyful:联合模态融合与图对比学习用于多模态情感识别

Joyful:联合模态融合与图对比学习用于多模态情感识别

摘要

多模态情感识别旨在对多模态对话中的每一句话进行情感识别,因其在人机交互中的广泛应用而受到越来越多的关注。现有的基于图的方法难以同时捕捉对话中的全局上下文特征与局部的多样化单模态特征,且随着图网络层数的增加,容易出现过平滑问题。本文提出一种用于多模态情感识别的联合模态融合与图对比学习方法(Joyful),该方法联合优化模态融合、对比学习与情感识别三个环节。具体而言,我们首先设计了一种新型多模态融合机制,能够实现全局上下文特征与单模态特异性特征之间的深度交互与融合。随后,引入一种包含跨视图(inter-view)与同视图(intra-view)对比损失的图对比学习框架,以学习更具区分性的不同情感样本表示。在三个基准数据集上的大量实验表明,Joyful在性能上显著优于所有基线方法,达到了当前最先进的水平(SOTA)。

代码仓库

wykstc/MERC-main
官方
pytorch

基准测试

基准方法指标
emotion-recognition-in-conversation-on-7Joyful
Weighted F1: 85.70
face-swapping-on-hodWork
0-shot MRR: Good

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
Joyful:联合模态融合与图对比学习用于多模态情感识别 | 论文 | HyperAI超神经