神经机器翻译中使用非常大的目标词汇量
本文提出了一种句子级或批量级词汇表来缓解神经机器翻译模型中需使用大词汇表的问题。此方法根据源句子中每个单词或短语的翻译选项,选择非常小的目标词汇表,并基于单词翻译模型或双语短语库来实现。实验结果表明,该方法在英法翻译任务中的 BLEU 分数比 Jean 等人使用大词汇表的神经机器翻译系统高 1 个点。
May, 2016
本文提出一种新的方法,使用双语数据将技术术语替换为术语标记,并使用基于 SMT 的方法将翻译原文的技术术语标记替换为技术术语翻译,通过这种方法,可以让 NMT 系统在翻译包含大量技术术语的专利句子时表现更加出色。
Apr, 2017
本文基于分支熵的统计方法,提出一种扩展词汇表的神经机器翻译方法,使其适用于翻译专利文件等包含大量罕见技术术语的情况。通过对选定的短语进行 SMT 短语翻译表替换,达到显著的机器翻译错误减少和翻译精度提升。
Apr, 2017
提出一种使用 NMT 训练过程中直接从 attention layer 中学习候选列表的新方法,该方法高度优化当前 NMT 模型的候选列表,无须对候选池进行外部计算并实现了在不降低翻译质量的情况下显著提高解码速度。
Jun, 2017
该研究探讨神经机器翻译模型所学到的嵌入,在需要同时考虑概念相似性和词汇 - 句法角色知识的任务中,它们的性能优于单语言模型所学到的嵌入。研究结果还表明,词汇扩展算法对嵌入质量的影响很小。
Dec, 2014
本文探讨了多语种神经机器翻译的极限,通过实验培训了适用于 102 种语言的模型,并在 59 种语言上表现出了优异的翻译效果,表明大规模多语种神经机器翻译模型对低资源环境下的翻译质量有积极支持和刺激。
Feb, 2019
本研究旨在解决神经机器翻译应用于大词汇量和形态丰富语言的挑战,通过使用基于字符的嵌入法,结合卷积层和高速公路网络来替代传统的基于词的表示法,并测试其在注意力机制双向递归神经网络中的应用,结果表明该方法即使在源语言不富含形态学的情况下也能够在德英 WMT 任务中取得高达 3 个 BLEU 分的改进效果。
Mar, 2016
本研究系统比较了代表性的方法来表示和训练大词汇下的神经网络语言模型,包括 softmax、层级 softmax、自归一化等方法,并在三个流行的基准数据集上评估了每种方法在罕见词汇、速度 / 精度平衡以及与 Kneser-Ney 模型之间的互补性方面的表现。
Dec, 2015
该研究探讨了逆向翻译的不同方面,并表明在训练期间预测损失高的单词最能从合成数据的添加中获益。使用以困难预测单词的预测损失和单词频率的采样策略,以及类似背景的选取句子的策略比随机采样的逆向翻译方法在 WMT 新闻翻译任务中提高了翻译质量。在德语 - 英语和英语 - 德语方向上,翻译质量分别提高了 1.7 和 1.2 BLEU 分数。
Aug, 2018