3 个月前

掩码自编码器听觉模型

掩码自编码器听觉模型

摘要

本文研究了一种对基于图像的掩码自编码器(Masked Autoencoders, MAE)的简单扩展,用于从音频频谱图中进行自监督表征学习。沿用MAE中的Transformer编码器-解码器架构,我们的Audio-MAE首先以较高的掩码比例对音频频谱图块进行编码,仅将未被掩码的标记输入编码器层。随后,解码器对编码后的上下文进行重新排序,并利用掩码标记进行填充,以重建原始输入的频谱图。我们发现,在解码器中引入局部窗口注意力机制具有显著优势,因为音频频谱图在局部时间与频率区间内具有高度相关性。随后,我们在目标数据集上使用较低的掩码比例对编码器进行微调。实验结果表明,Audio-MAE在六项音频与语音分类任务上取得了新的最先进性能,优于其他依赖外部监督预训练的近期模型。代码与模型将发布于 https://github.com/facebookresearch/AudioMAE。

代码仓库

eml-eda/tle-supervised
pytorch
GitHub 中提及
rishikksh20/AudioMAE-pytorch
pytorch
GitHub 中提及
facebookresearch/multimodal
pytorch
GitHub 中提及
facebookresearch/audiomae
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
speaker-identification-on-voxceleb1AudioMAE (local)
Accuracy: 94.8
Top-1 (%): 94.8
speaker-identification-on-voxceleb1AudioMAE (global)
Accuracy: 94.1
Top-1 (%): 94.1

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
掩码自编码器听觉模型 | 论文 | HyperAI超神经