May, 2022

神经机器翻译最近邻知识蒸馏

TL;DR本文提出一种改进机器翻译模型的方法,即将 NN search 前置,并通过最近邻知识蒸馏(NN-KD)训练基本 NMT 模型直接学习NN知识,可以更好地解决机器翻译中的过度纠正问题,并在保持训练和解码速度不变的情况下,实现了比NN-MT等现有方法更好的结果。