使用深度神经网络架构的词汇翻译模型
通过使用卷积神经网络和目标信息来指导源信息并形成统一的表达,该神经网络联合模型可以在两个 NIST 中英翻译任务中显著提高平均 BLEU 分数,达到 +1.08 BLEU 分数。
Mar, 2015
该研究提出了一种基于卷积神经网络的翻译选择方法,该方法可以判断两种语言中短语对之间的相似性,以及在源语言中包含短语的上下文,通过渐进式学习,能够更好地表示词组和句子级上下文,实验结果显示,与基线系统相比,该方法能够显着提高 1.4 个 BLEU 分数。
Mar, 2015
本文提出使用离散的翻译词典,通过使用 NMT 模型的 attention 向量选择需要聚焦的源单词的词典概率,从而缓解 NMT 在翻译低频词汇时出现的错误,并进行了两种方法的实验,结果显示翻译质量(BLEU)得分有明显提高。
Jun, 2016
通过内存网络以及结构化预测方式解决文档级机器翻译问题。在训练过程中囊括源文件和目标文件,通过分别采用两个记忆组件来处理相应上下文,同时提出一种基于块协调下降的迭代解码算法。在法语、德语和爱沙尼亚语文件中进行英语翻译的实验结果表明,该模型在利用上下文方面有效,在 BLEU 和 METEOR 方面的表现均显著优于先前的方法。
Nov, 2017
本文中,我们提出了一种新的学习算法,用于增进神经机器翻译模型对附加上下文的理解,通过使用多级成对排名损失函数,我们在基于 transformer 的大语境翻译系统中进行了评估,并通过与实际和随机语境下的性能对比表明,使用所提出的算法训练的模型对额外上下文的理解更敏感。
Mar, 2019
本文提出两种方法解决神经机器翻译中罕见单词的误译问题,一为限制向量范数,避免高频词过度约束;二为引入词汇模块与其他模块联合训练得到更好的翻译结果。通过对 8 种语言对的数据进行测试,结果显示本文方法的 BLEU 分数提升了最高可达 +4.3,并且在几乎所有设置中优于基于短语的翻译。
Oct, 2017
本文提出了一种基于卷积层的神经机器翻译框架,相比双向 LSTM 网络,该框架可以同时编码整个源语句,从而加速了翻译速度,在 WMT'16 数据集上达到了竞争水平的准确性,并在 WMT'15 和 WMT'14 数据集上取得了优异的结果。
Nov, 2016
通过使用源上下文信息优化的翻译模型以提高机器翻译性能,我们提出了一种使用目标上下文信息的新颖扩展,令人惊讶的是,我们证明可以将该模型直接高效地集成在解码过程中,我们的方法可以应用于大规模训练数据,对四种语言对的语言翻译质量有一致提高,我们提供了分析,比较基线基于源上下文模型的优势,以及我们扩展的源上下文和目标上下文模型,结果显示,我们的扩展可以更好地捕捉形态学一致性。
Jul, 2016
本研究将显式神经间语纳入多语言编码 - 解码神经机器翻译(NMT)体系结构中,证明该模型通过直接零 - shot 翻译(不使用中转翻译)并使用源语句嵌入来创建英语 Yelp 评论分类器,该分类器能够通过神经间语协调法也对法语和德语评论进行分类,并且即使我们使用的参数数量比成对的 NMT 模型集合少,但我们的方法对于 WMT15 中的每个语言对产生了相当的 BLEU 得分。
Apr, 2018