Apr, 2024

分解转导模型的有效内部语言模型训练和融合

TL;DR基于因子化转导模型的新型内部语言模型 (ILM) 训练和解码策略,在 LibriSpeech 数据集上相对于标准解码方法获得了 17% 的相对改进,并与外部语言模型融合强化的强 RNN-T 基线相比,在一般集上获得了 5.5% 的相对改进和对于罕见单词的 8.9% WER 降低。该模型在无需依赖外部语言模型的情况下,达到了优秀的性能,非常适用于生产用例,并提出了一种新颖且内存高效的 ILM 融合意识的最小词误差率 (MWER) 训练方法来进一步提升性能。