ACLJun, 2023

多语言编码器和 Seq2Seq 模型的顺序预训练配方

TL;DR本研究通过将基于编码器和基于序列到序列模型初始化来提高预训练效率,并展示了这种双阶段方法可以获得多语言编码器和序列到序列模型的表现,同时减少了总计算成本约 27%。