
摘要
近期利用Transformer模型的合成语音检测器在性能上优于基于卷积神经网络的同类检测器。这一改进可能归因于Transformer模型中多头自注意力机制(MHSA)的强大建模能力,该机制能够学习每个输入标记的时间关系。然而,合成语音的伪影可以出现在频率通道和时间片段的特定区域,而MHSA忽略了输入序列的时间-通道依赖性。在本研究中,我们提出了一种时间-通道建模(TCM)模块,以增强MHSA捕捉时间-通道依赖性的能力。ASVspoof 2021实验结果表明,仅增加0.03M参数的情况下,TCM模块就能在等错误率(EER)指标上超越现有最先进系统9.25%。进一步的消融研究表明,同时利用时间和通道信息对检测合成语音的效果提升最大。
代码仓库
ductuantruong/tcm_add
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| audio-deepfake-detection-on-asvspoof-2021 | TCM-Add | 21DF EER: 2.14 21LA EER: 2.99 |