3 个月前

自训练与预训练在语音识别中具有互补性

自训练与预训练在语音识别中具有互补性

摘要

自训练(self-training)与无监督预训练已成为利用未标注数据提升语音识别系统性能的有效方法。然而,目前尚不明确这两种方法是否学习到相似的特征模式,以及它们是否能够有效结合。本文表明,在多种标注数据配置下,伪标签法(pseudo-labeling)与基于wav2vec 2.0的预训练具有互补性。仅使用Libri-light中的10分钟标注数据,以及LibriVox提供的53,000小时未标注数据,即可在LibriSpeech数据集的干净测试集和其它测试集上分别实现3.0%和5.2%的词错误率(WER),性能媲美一年前仅使用960小时标注数据训练的最佳公开系统。而在使用LibriSpeech全部标注数据进行训练的情况下,词错误率进一步降至1.5%和3.1%。

基准测试

基准方法指标
speech-recognition-on-librispeech-test-cleanwav2vec_wav2letter
Word Error Rate (WER): 2.7
speech-recognition-on-librispeech-test-cleanConv + Transformer + wav2vec2.0 + pseudo labeling
Word Error Rate (WER): 1.5
speech-recognition-on-librispeech-test-otherConv + Transformer + wav2vec2.0 + pseudo labeling
Word Error Rate (WER): 3.1
speech-recognition-on-librispeech-train-cleanwav2vec_wav2letter
Word Error Rate (WER): 2.8
speech-recognition-on-librispeech-train-clean-1wav2vec_wav2letter
Word Error Rate (WER): 3.6

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
自训练与预训练在语音识别中具有互补性 | 论文 | HyperAI超神经