
摘要
深度神经网络已成为音频源分离(ASS)不可或缺的技术。最近有报道称,一种称为MMDenseNet的卷积神经网络(CNN)架构变体被成功应用于解决估计声源幅度的ASS问题,并在DSD100数据集上取得了最先进的结果。为了进一步提升MMDenseNet的性能,本文提出了一种新的架构,该架构在多个尺度上整合了长短时记忆(LSTM)单元,并通过跳过连接有效地建模音频上下文中的长期结构。实验结果显示,所提出的方法在性能上优于MMDenseNet、LSTM以及这两种网络的简单融合。此外,所提出的模型在参数数量和处理时间方面显著低于简单融合方法。更重要的是,在歌唱声音分离任务中,所提出的方法比使用理想二值掩模获得的结果更好。
代码仓库
tsurumeso/vocal-remover
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| music-source-separation-on-musdb18 | TAK2 | SDR (avg): 6.04 SDR (bass): 5.40 SDR (drums): 6.81 SDR (other): 4.80 SDR (vocals): 7.16 |