MMAug, 2023

基于多编码器的文档级神经机器翻译中上下文编码的案例研究

TL;DR针对多编码器模型在不同上下文下对代词翻译的影响,本文通过在三种上下文设置(前两个句子、随机两个句子和两者混合)上训练多编码器模型,并使用上下文感知的代词翻译测试集进行评估,结果表明即使上下文是随机的,模型在 ContraPro 测试集上表现良好。此外,对源表示进行的分析显示上下文编码器提供足够的信息以学习话语层次的信息,同时将所选上下文(在本例中为前两个句子)和随机上下文进行混合通常比其他设置更好。