ACLMar, 2021

分而治之:针对上下文感知多编码器翻译模型的有效预训练

TL;DR本文介绍了多编码器模型在训练语境参数时的困难,并提出了预训练上下文参数的四种不同拆分方法,进而增加上下文训练信号,并缩短上下文片段,从而提高了上下文参数的学习效果。在 BLEU 和对比测试集的评估下,结果表明本方法在低资源和高资源设置下都能有效地提高学习效果。