基于概率 N-gram 匹配的贪婪搜索神经机器翻译
本研究针对神经机器翻译存在的训练误差积累和过度校正问题,提出了一种从训练模型的预测序列中采样上下文词并使用句子级优化方法选择预测序列的训练策略,并在中英互译和 WMT'14 英德互译数据集上得到了显著提高。
Jun, 2019
本文提出了一种使用序列级训练目标来训练非自回归神经机器翻译模型的方法,通过几种为非自回归定制的新型强化算法,基于 BLEU 等序列级评价指标优化 NAT 模型的训练;介绍了一种基于 Bag-of-Ngrams(BoN)差异的 NAT 模型的新型训练目标;并通过三阶段训练策略将这两种方法结合起来应用,验证了该方法在多项任务中的鲜明表现。
Jun, 2021
本文提出了一种使用 Gumbel-Greedy Decoding 训练生成网络来预测翻译的方法,该方法使用 Gumbel-Softmax 重新参数化来实现对离散单词序列的可微分训练,实验证明其有效性。
Jun, 2017
本研究运用强化学习方法,实现神经机器翻译中异质训练数据的有效生成和利用,提出课程学习框架,相比于传统方法,该方法展现出更好的表现和更强的数据泛化能力。
Feb, 2019
通过搜索引擎检索以前见过的语句,然后提取这些语句中与源语句匹配的 $n$-grams 以实现将历史翻译例子加入到神经机器翻译模型中,因此提高翻译效果。
Apr, 2018
本文提出了一种有效的方法来偏置序列到序列神经机器翻译模型(NMT)的注意机制,使其趋向于研究过的词对齐模型。我们展示了我们的新型引导对齐训练方法如何在真实生活的电商文本翻译中提高了翻译质量,克服了许多未知单词和大型类型 / 令牌比。我们还表明,与输入文本相关的元数据(例如主题或类别信息)作为网络解码器部分的附加信号可显着提高翻译质量。有了这两个新功能,NMT 系统在一个产品标题集上的 BLEU 分数从 18.6 提高到 21.3%。通过将通用领域 NMT 系统进行领域适应也可获得更大的机器翻译质量提升。这个开发的 NMT 系统在 IWSLT 语音翻译任务中也表现良好,其中四个变体系统的集合比基线的基于短语的系统的 BLEU 分数提高了 2.1%。
Jul, 2016
本研究提出了一种基于注意力机制的神经机器翻译(NMT)模型,并允许它在训练后访问整个平行句子对训练集。该模型由两个阶段组成:检索阶段和翻译阶段,实现了在源句子和一组检索的平行句子对之间的平滑翻译。在三种语言(En-Fr,En-De 和 En-Es)上的实证评估表明,该方法显著优于基准方法,并且当检索到更相关的平行句子对时,改进效果更为显著。
May, 2017
Google 发布的 GNMT 神经机器翻译系统采用 LSTM 深度学习网络,使用 attention 机制和残差连接,借助词元素 (wordpieces) 将单词划分为子单元,提高了稀有单词处理能力与整体系统精度。
Sep, 2016
本文提出了一种半参数神经机器翻译方法,采用 n-gram 级别的检索方法和表现出色的非参数特性,针对神经网络在训练过程中的参数漂移而提出的而提高网络的鲁棒性的问题,在四种测试数据集上取得了优异的表现,进一步打开了使用非参数方法进行领域自适应的大门。
Feb, 2019