ACLMar, 2022

神经机器翻译的序列到序列预训练:理解与改进

TL;DR本文主要研究了 Seq2Seq 预训练在神经机器翻译上的影响,发现 Seq2Seq 预训练可提高翻译多样性,但由于与 NMT 微调存在差异,限制了翻译质量和模型稳健性,进一步提出了域内预训练和输入适应策略可以缓解这些问题。实验结果显示,我们的方法可以一致地提高 Seq2Seq 预训练的翻译性能和模型稳健性。