May, 2024

通过利用翻译记忆进行检索增强机器翻译的优化示例选择

TL;DR检索增强机器翻译通过检索类似实例的翻译记忆,以条件化神经解码器的预测。我们的目标是改进上游检索步骤,并考虑固定下游基于编辑的模型:多 Levenshtein Transformer。该任务是找到一组能够最大化源句子整体覆盖率的例子。为此,我们依赖于次模函数的理论,并探索优化这种覆盖的新算法。我们评估这些性能改进对机器翻译任务的影响。