May, 2018

针对语音识别的端到端注意力模型的改进训练

TL;DR研究了基于子词单元的序列到序列的注意力机制模型在简单开放式语料库上进行的端到端语音识别中的应用,通过预置一个高时间缩小系数并在训练过程中逐步降低,以及使用辅助 CTC 损失函数等方法,证明了它的有效性和高性能。同时,还对基于子词单元的 LSTM 语言模型进行了训练,在无语言模型情况下,在给定的评估数据子集上相较于注意力基线的 WER 提高了 27%。