Jan, 2024

提升多对多多语言机器翻译的方法与大型语言模型

TL;DR本文研究了机器翻译的训练模型,从学习具有广泛平行语料的神经机器翻译模型逐渐转变为在预训练的多语言大型语言模型上进行指导微调,并重点关注增强多对多多语言翻译性能和零 - shot 翻译方向的。我们证明了在指导微调过程中采用的提示策略对零 - shot 翻译性能至关重要,并引入了跨语言一致性正则化(CrossConST)的版本,即 XConST,以弥合不同语言之间的表示差距并提高零 - shot 翻译性能。在 ALMA 和 LLaMA-2 的实验结果表明,我们的方法持续改善了翻译性能。我们的实现代码可以在此 https URL 上找到。