
摘要
我们研究了Wave-U-Net架构在语音增强中的应用,该模型由Stoller等人提出,最初用于音乐中的人声和伴奏分离。这种端到端的音频源分离方法直接在时域内运行,允许对相位信息进行综合建模,并能够考虑较大的时间上下文。我们的实验表明,所提出的方法在Voice Bank语料库(VCTK)数据集上的语音增强任务中,相对于现有技术改进了多个指标,包括PESQ、CSIG、CBAK、COVL和SSNR。我们发现,与最初为音乐中歌唱声音分离设计的系统相比,较少的隐藏层就足以实现语音增强。我们认为这一初步结果是一个令人鼓舞的信号,进一步探索时域内的语音增强不仅具有其自身的价值,还可以作为语音识别系统的预处理步骤。
代码仓库
craigmacartney/Wave-U-Net-For-Speech-Enhancement
tf
GitHub 中提及
MattSegal/speech-enhancement
pytorch
GitHub 中提及
pheepa/DCUnet
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| speech-enhancement-on-demand-1 | Wave-U-Net | CBAK: 3.24 COVL: 2.96 CSIG: 3.52 PESQ: 2.4 |