3 个月前

多模态多损失融合网络用于情感分析

多模态多损失融合网络用于情感分析

摘要

本文研究了在多模态场景下特征编码器的最优选择与融合方法,并将这些融合策略整合至单一神经网络中,以提升情感检测性能。我们对比了多种融合方式,并探讨了在多模态融合网络中采用多损失训练的影响,揭示了关于子网络性能的出人意料的重要发现。研究还发现,引入上下文信息可显著提升模型表现。我们提出的最优模型在三个数据集(CMU-MOSI、CMU-MOSEI 和 CH-SIMS)上均达到了当前最先进的性能水平。这些结果为优化特征选择与融合策略、进一步提升神经网络在情感检测任务中的表现提供了清晰的技术路线图。

代码仓库

zehuiwu/MMML
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
multimodal-sentiment-analysis-on-ch-simsMMML
CORR: 73.26
F1: 82.9
MAE: 0.332
multimodal-sentiment-analysis-on-cmu-mosei-1MMML
Acc-5: 57.45
Acc-7: 54.77
Accuracy: 88.22
Corr: 81.42
F1: 88.04
MAE: 0.5072
multimodal-sentiment-analysis-on-cmu-mosiMMML
Acc-2: 90.35
Acc-5: 60.01
Acc-7: 52.72
Corr: 0.8824
F1: 90.35
MAE: 0.5573
multimodal-sentiment-analysis-on-mosiMMML
Accuracy: 90.35
F1 score: 90.35

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
多模态多损失融合网络用于情感分析 | 论文 | HyperAI超神经