重新审视鲁棒神经机器翻译:基于 Transformer 的案例研究
本文提出采用对抗性稳定性训练来提高神经机器翻译 (NMT) 模型的鲁棒性,通过使编码器和解码器在输入和其扰动版本的情况下行为相似,进而提高模型的容错性。在汉英、英德和英法翻译任务中的实验结果表明,该方法不仅可以显著提高强 NMT 系统的翻译品质,而且可以增强 NMT 模型的鲁棒性。
May, 2018
本文研究如何使强 NMT 系统适应典型 ASR 错误,并提出适应策略以训练单一系统,能够在无监督输入类型的情况下翻译干净或嘈杂的输入。通过公共演讲翻译数据集的实验结果表明,对包括 ASR 转录本的大量并行数据进行调整对于相同类型的测试数据是有益的,但在翻译干净文本时会产生轻微恶化。 在干净和嘈杂数据的同一数据上进行调整可以在两种输入类型上产生最佳结果。
Oct, 2019
提出了一种改善神经机器翻译模型鲁棒性的方法,该方法包含两个部分:通过对抗性源样本攻击翻译模型,以及通过对抗性目标输入来防御翻译模型,以提高其对抗性源输入的鲁棒性,并通过梯度下降法生成对抗性输入来提高其性能。在中英和英德翻译任务的实验结果表明,在标准的干净基准测试中,我们的方法可以取得显著的改进($2.8$ 和 $1.6$ BLEU 分数),同时在噪声数据上表现出更高的鲁棒性。
Jun, 2019
本文研究了基于字符的神经机器翻译模型,并发现它们能够解决词表外的问题、学习词形变化,但是在面对嘈杂的数据时容易出现错误。作者探究了两个方法来提高模型的鲁棒性:结构不变的词表示和在噪声数据上强化训练。作者发现一个基于字符卷积神经网络的模型能够同时学习多种噪声下的鲁棒表示。
Nov, 2017
本文提出了一个双重注意力变压器机器翻译模型,通过预训练的卷积神经网络联接空间视觉特征,通过两个分离的注意力部件,在加强的多头注意力层中自由处理源语言单词和图像部分,并在目标语言生成单词时,发现该模型可以有效地利用非常稀少的多模数据集和大规模文本数据集,实现了在英德多模机器翻译任务中的最佳效果
Jul, 2018
本文研究了无监督神经机器翻译在噪声数据下的鲁棒性问题,并且提出了一种针对这种噪声数据的对抗性训练方法,通过去噪来提高无监督神经机器翻译的鲁棒性。经过实验验证,该方法在一些语言对上,显著提高了传统无监督神经机器翻译系统在嘈杂场景下的性能。
Feb, 2020
本篇论文研究了 NMT 系统在源语句中进行多次更改时的表现,并提出了基于软性关注力技术的单词替换方法,对英德和英法两种语言对进行实验,结果表明现有技术无法捕捉源语言的语义,提出的软性关注力技术是一种不变性基攻击,可通过备选指标更好地评估这种攻击。
Aug, 2019