EMNLPApr, 2020

低资源神经机器翻译的语言模型先验

TL;DR本文介绍了一种新的神经翻译模型加入语言模型的先验知识的方法,通过加入正则化项确保神经翻译模型输出分布在语言模型先验下的概率合理,而避免与语言模型的不一致。与先前的工作不同,该方法只在训练时使用语言模型,并不会降低解码速度,实验结果表明该方法适用于小数据量机器翻译任务。