3 个月前

用于语音情感识别的向量量化掩码自编码器

用于语音情感识别的向量量化掩码自编码器

摘要

近年来,得益于深度学习技术的快速发展,语音情感识别(Speech Emotion Recognition, SER)取得了显著进展。然而,标注数据的稀缺仍是该领域面临的主要挑战之一。自监督学习近年来成为应对这一挑战的有前景解决方案。本文提出了一种面向语音的向量量化掩码自编码器(Vector Quantized Masked Autoencoder for Speech, VQ-MAE-S),该模型基于自监督预训练,并通过微调实现语音情感识别。VQ-MAE-S模型以向量量化变分自编码器(Vector-Quantized Variational Autoencoder)的离散潜在空间为基础,构建于掩码自编码器(Masked Autoencoder, MAE)架构之上。实验结果表明,该模型在VoxCeleb2数据集上进行预训练,并在情感语音数据上进行微调后,其性能优于基于原始频谱图表示的MAE模型以及其他当前最先进的方法,在语音情感识别任务中展现出更强的识别能力。

代码仓库

samsad35/VQ-MAE-S-code
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
speech-emotion-recognition-on-emodb-datasetVQ-MAE-S-12 (Frame) + Query2Emo
Accuracy: 90.2
F1: 0.891
speech-emotion-recognition-on-ravdessVQ-MAE-S-12 (Frame) + Query2Emo
Accuracy: 84.1
F1: 0.844

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
用于语音情感识别的向量量化掩码自编码器 | 论文 | HyperAI超神经