Feb, 2024

与协作学习一起利用多样的建模背景进行神经机器翻译

TL;DR本研究提出了一种新颖的通用协作学习方法 DCMCL,在这种方法中,自回归模型(AR)和非自回归模型(NAR)被视为协作者,通过令牌级相互学习和序列级对比学习,在两种模型之间层次化地利用双向语境信息。广泛的实验结果表明,所提出的 DCMCL 方法可以同时改进 AR 和 NAR 模型的性能,分别提高了 1.38 和 2.98 个 BLEU 分数,并在 AR 和 NAR 解码方面也优于当前最佳统一模型,分别提高了 0.97 个 BLEU 分数。