
摘要
基于神经网络的自动语音识别(ASR)系统中,可供自由获取的资源正稳步增长,其预测结果的可靠性也不断提升。然而,当前对训练完成的模型评估通常仅依赖于统计指标(如词错误率WER或字符错误率CER),这些指标无法揭示语音输入转录过程中所产生的错误的本质特征及其实际影响。本文选取了一系列在德语语料上预训练的ASR模型架构,并在一组多样化的测试数据集上对其进行评估。研究识别出跨架构的预测错误,将这些错误进行分类,并进一步追溯各类错误的根源,包括训练数据本身及其他潜在因素。最后,本文探讨了改进方案,旨在构建质量更高的训练数据集,并开发更具鲁棒性的ASR系统。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| automatic-speech-recognition-on-hui | Conformer Transducer | WER (%): 1.89% |
| automatic-speech-recognition-on-m-ailabs | Conformer Transducer | WER (%): 4.28% |
| automatic-speech-recognition-on-the-spoken | Conformer Transducer | WER (%): 8.04% |
| automatic-speech-recognition-on-voxforge | Conformer Transducer | WER (%): 3.36% |
| automatic-speech-recognition-on-voxpopuli | Conformer Transducer (German) | WER (%): 8.98% |
| speech-recognition-on-common-voice-german | Conformer Transducer (no LM) | Test WER: 6.28% |
| speech-recognition-on-tuda | Conformer-Transducer (no LM) | Test WER: 5.82% |