4 个月前

时序通道建模在多头自注意力机制中的应用以检测合成语音

时序通道建模在多头自注意力机制中的应用以检测合成语音

摘要

近期利用Transformer模型的合成语音检测器在性能上优于基于卷积神经网络的同类检测器。这一改进可能归因于Transformer模型中多头自注意力机制(MHSA)的强大建模能力,该机制能够学习每个输入标记的时间关系。然而,合成语音的伪影可以出现在频率通道和时间片段的特定区域,而MHSA忽略了输入序列的时间-通道依赖性。在本研究中,我们提出了一种时间-通道建模(TCM)模块,以增强MHSA捕捉时间-通道依赖性的能力。ASVspoof 2021实验结果表明,仅增加0.03M参数的情况下,TCM模块就能在等错误率(EER)指标上超越现有最先进系统9.25%。进一步的消融研究表明,同时利用时间和通道信息对检测合成语音的效果提升最大。

代码仓库

ductuantruong/tcm_add
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
audio-deepfake-detection-on-asvspoof-2021TCM-Add
21DF EER: 2.14
21LA EER: 2.99

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
时序通道建模在多头自注意力机制中的应用以检测合成语音 | 论文 | HyperAI超神经