Oct, 2018

多语言序列到序列语音识别:架构,转移学习和语言建模

TL;DR本文提出使用多语言数据建立先前模型,结合迁移学习的方法,通过在 10 个 BABEL 语言中训练 seq2seq 模型来改进音频识别,同时在解码时加入循环神经网络语言模型 (RNNLM) 来进一步提高模型的表现,实验结果表明,将先前的多语言模型应用于 4 种其他 BABEL 语言可以有效提高识别的准确度,并且加入 RNNLM 辅助也可以带来显著的性能提升。