神经机器翻译的词袋模型作为目标
本文提出了一种基于重要性采样的方法,使我们可以使用非常大的目标词汇,有效地进行解码,可以优于基准模型和 LSTM-based 神经机器翻译模型,并使用多个模型集成实现了英 -> 德翻译的最先进性能(由 BLEU 度量)。
Dec, 2014
本文提出了一种句子级或批量级词汇表来缓解神经机器翻译模型中需使用大词汇表的问题。此方法根据源句子中每个单词或短语的翻译选项,选择非常小的目标词汇表,并基于单词翻译模型或双语短语库来实现。实验结果表明,该方法在英法翻译任务中的 BLEU 分数比 Jean 等人使用大词汇表的神经机器翻译系统高 1 个点。
May, 2016
该研究研究了如何在只有大型单语语料库的情况下学习翻译。提出了两种模型,一种是神经模型,一种是基于短语的模型。这些模型通过参数的精心初始化、语言模型的去噪效应和反向迭代自动生成的并行数据来提高翻译性能。在 WMT'14 英语 - 法语和 WMT'16 德语 - 英语 基准测试上,这些模型分别获得 28.1 和 25.2 BLEU 分数,比现有方法的 BLEU 分数高出 11 个分数。方法在英语 - 乌尔都语和英语 - 罗马尼亚语等低资源语言中也取得了良好的结果。
Apr, 2018
通过搜索引擎检索以前见过的语句,然后提取这些语句中与源语句匹配的 $n$-grams 以实现将历史翻译例子加入到神经机器翻译模型中,因此提高翻译效果。
Apr, 2018
本文提出通过训练 NAT 最小化模型输出和参考句子之间的 N-Gram 差异来促进 NAT 捕捉目标方面的序列依赖性,并与翻译质量相关。在三个翻译任务上验证了我们的方法,结果显示我们的方法在 WMT14 En<->De 和 WMT16 En<->Ro 上比 NAT 基线大约 5.0 和 2.5 个 BLEU 分数。
Nov, 2019
本篇论文提出了动态神经机器翻译 (Dynamic NMT) 的方法,通过对测试句子进行微调以适应具体场景,从而显着提高翻译性能。该方法特别适用于高度相似的句子。
Sep, 2016
该论文探索了使用源语言全局句子级特征来预测目标语言本地翻译,并提出了一种新的双语限制基于块的卷积神经网络来学习语义表示,并使用局部和全局信息的前馈神经网络来更好地预测翻译质量。实验表明,该方法可以在翻译质量方面得到实质性的提高。
Feb, 2015
本文旨在解决传统编码器 - 解码器架构中的长度固定向量制约所面临的性能瓶颈,并提出一种基于(软)搜索方式的新方法,在英法翻译任务中获得了与基于短语的模型相当的翻译性能,且(软)对齐结果与人类直觉相符。
Sep, 2014