BriefGPT.xyz
May, 2018
构建强韧的神经机器翻译系统
Towards Robust Neural Machine Translation
HTML
PDF
Yong Cheng, Zhaopeng Tu, Fandong Meng, Junjie Zhai, Yang Liu
TL;DR
本文提出采用对抗性稳定性训练来提高神经机器翻译(NMT)模型的鲁棒性,通过使编码器和解码器在输入和其扰动版本的情况下行为相似,进而提高模型的容错性。在汉英、英德和英法翻译任务中的实验结果表明,该方法不仅可以显著提高强NMT系统的翻译品质,而且可以增强NMT模型的鲁棒性。
Abstract
Small perturbations in the input can severely distort intermediate representations and thus impact translation quality of
neural machine translation
(NMT) models. In this paper, we propose to improve the
robustness
→