本文提出了一种方法将基于统计的短语机器翻译方法中存储的目标短语与神经机器翻译模型的编码器 - 解码器结构相结合,其中短语记忆被动态地生成,提供上下文信息,以进行短语翻译,实现了中英文翻译的显著提升。
Aug, 2017
利用短语记忆,结合外部知识,采用生成多个词语序列的策略,提出一种神经机器翻译器 PhraseNet。在汉译英实验中,PhraseNet 相比普通神经机器翻译器,BLEU 值提高了 3.45。
Jun, 2016
通过搜索引擎检索以前见过的语句,然后提取这些语句中与源语句匹配的 $n$-grams 以实现将历史翻译例子加入到神经机器翻译模型中,因此提高翻译效果。
Apr, 2018
本文介绍了一种混合搜索的关注机制神经机器翻译模型,该模型使用机器翻译模型和短语级翻译概率等特征来实现目标短语的波束搜索,结果显示与强 NMT 基准模型相比,使用短语模型搜索可以将机器翻译质量提高达到 2.3% 的 BLEU 绝对值的效果。
本文介绍了一种将翻译记忆集成到神经机器翻译系统中的简单有效方法,并在多个数据集上获得实验性能显著优于强基线模型的结果。
Jan, 2023
本文拟通过选择在新领域非标记数据中的全句和短语,将其路由至人类翻译,解决神经机器翻译在领域转移方面的限制,从而在德语 - 英语翻译任务上,相比于不确定性句子选择方法,实现了一定程度的改进。
Jun, 2021
本文提出了将 SMT 模型融入 NMT 框架,通过辅助分类器和门函数来结合 SMT 的推荐和 NMT 的生成,从而提高中英翻译的性能。实验结果表明,该方法在多个测试集上均显著优于现有的 NMT 和 SMT 系统。
Oct, 2016
本研究提出了一种基于注意力机制的神经机器翻译(NMT)模型,并允许它在训练后访问整个平行句子对训练集。该模型由两个阶段组成:检索阶段和翻译阶段,实现了在源句子和一组检索的平行句子对之间的平滑翻译。在三种语言(En-Fr,En-De 和 En-Es)上的实证评估表明,该方法显著优于基准方法,并且当检索到更相关的平行句子对时,改进效果更为显著。
May, 2017
本研究提出了一种新的框架,使用单语记忆并以跨语言方式进行可学习的记忆检索,以增强神经机器翻译性能,并展示其在较低资源和领域适应情况下的有效性。
May, 2021
本研究提出了一种将传统 SMT 模型与神经机器翻译相结合的方法,从而提高翻译质量。该方法利用现有的基于短语的 SMT 模型计算基于短语的解码成本,并将其用于重新排列 n 个最佳 NMT 输出。研究表明,利用强制解码成本对 NMT 输出进行排序可以成功提高四种不同语言的翻译质量。
Nov, 2017