Nov, 2018

语言无关端到端自动语音识别的迁移学习与语言模型融合

TL;DR本文探讨了一种更好的适应低资源语言的方法,采用外部语言模型(LM)在转移学习框架下。通过在共享词汇表的统一序列到序列(S2S)架构中构建语言无关的 ASR 系统,并在整个适应阶段将外部 LM 集成到基于注意力的 S2S 模型的解码器网络中的 LM 融合转移来有效地融合目标语言的语言上下文。作者还研究了各种用于转移学习的种子模型。实验评估使用 IARPA BABEL 数据集表明,当外部文本数据可用时,LM 融合转移比简单转移学习改善了所有五种目标语言的性能。最终系统使混合系统的性能差距大大降低。