
摘要
通过注意力机制对输入数据进行条件化的循环序列生成器最近在包括机器翻译、手写合成和图像字幕生成等一系列任务中表现出色。我们为语音识别扩展了注意力机制所需的功能。实验表明,虽然用于机器翻译的模型经过适应后在TIMIT音素识别任务上达到了具有竞争力的18.7%音素错误率(PER),但它只能应用于与其训练时所用的大致相同长度的发音片段。我们对此失败现象进行了定性分析,并提出了一种新颖且通用的方法,即在注意力机制中加入位置感知功能,以缓解这一问题。该新方法使得模型对长输入更加鲁棒,在单个发音片段上的PER达到18%,而在长度为其10倍(重复)的发音片段上则达到20%。最后,我们提出了对注意力机制的一项改进,防止其过度集中在单个帧上,这进一步将PER降低至17.6%的水平。
代码仓库
mnm-rnd/elsa-voice-asr
pytorch
GitHub 中提及
30stomercury/Automatic_Speech_Recognition
tf
GitHub 中提及
sooftware/OpenSpeech
pytorch
GitHub 中提及
sooftware/End-to-end-Speech-Recognition
pytorch
GitHub 中提及
biyoml/End-to-End-Mandarin-ASR
pytorch
GitHub 中提及
jackjhliu/End-to-End-Mandarin-ASR
pytorch
GitHub 中提及
sooftware/nlp-attentions
pytorch
msalhab96/SpeeQ
pytorch
GitHub 中提及
s3prl/End-to-end-ASR-Pytorch
pytorch
GitHub 中提及
Alexander-H-Liu/End-to-end-ASR-Pytorch
pytorch
GitHub 中提及
neil-zeng/asr
pytorch
GitHub 中提及
CKRC24/Listen-and-Translate
tf
GitHub 中提及
jackjhliu/Pytorch-End-to-End-ASR-on-TIMIT
pytorch
GitHub 中提及
biyoml/Pytorch-End-to-End-ASR-on-TIMIT
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| speech-recognition-on-timit | Bi-RNN + Attention | Percentage error: 17.6 |