EMNLPOct, 2020

融合损失的代词目标定向 NMT 微调

TL;DR本研究引入了一类新的条件生成 - 判别混合 Loss,用于微调经过训练的机器翻译模型,通过有针对性的微调目标和直观地重复利用训练数据,从而在不使用任何其他数据的情况下提高了模型的性能。我们针对代词翻译问题进行微调,并在代词基准测试集上对模型进行评估。结果表明我们的模型在几个测试集上都实现了较高的 BLEU 分数,特别是在 IWSLT13 De-En testset 上达到了最佳效果。同时我们还在 Fr-En 和 Cs-En 上重现了该方法的改进效果。