May, 2023
利用跨语言一致性正则化提升零样本多语言神经机器翻译
Improving Zero-shot Multilingual Neural Machine Translation by
Leveraging Cross-lingual Consistency Regularization
TL;DR本文介绍了一种跨语言一致性正则化方法CrossConST,用于在多语言神经机器翻译模型中实现零-shot翻译,以实现不同语言之间的普适表示,并提高翻译性能。实验结果证明CrossConST能够提高模型的翻译性能并降低句子表示间的差距,为未来的多语言NMT研究奠定了基础。