本文提出了一种方法将基于统计的短语机器翻译方法中存储的目标短语与神经机器翻译模型的编码器 - 解码器结构相结合,其中短语记忆被动态地生成,提供上下文信息,以进行短语翻译,实现了中英文翻译的显著提升。
Aug, 2017
本文提出了一种使用短语表作为推荐记忆来缓解神经机器翻译中生成流畅但不忠实的问题的方法,实验结果表明,该方法在注意力机制的基础上取得了显著的改进。
May, 2018
本研究提出了一种基于注意力机制的神经机器翻译(NMT)模型,并允许它在训练后访问整个平行句子对训练集。该模型由两个阶段组成:检索阶段和翻译阶段,实现了在源句子和一组检索的平行句子对之间的平滑翻译。在三种语言(En-Fr,En-De 和 En-Es)上的实证评估表明,该方法显著优于基准方法,并且当检索到更相关的平行句子对时,改进效果更为显著。
May, 2017
本研究提出了一种新的框架,使用单语记忆并以跨语言方式进行可学习的记忆检索,以增强神经机器翻译性能,并展示其在较低资源和领域适应情况下的有效性。
May, 2021
我们报告了一种有效的方法,使用短语机制 PhraseTransformer 改进了基线模型 Transformer,在构建神经机器翻译系统时在越中平行语料库上取得了最新的成果。
Aug, 2023
本文介绍了一种混合搜索的关注机制神经机器翻译模型,该模型使用机器翻译模型和短语级翻译概率等特征来实现目标短语的波束搜索,结果显示与强 NMT 基准模型相比,使用短语模型搜索可以将机器翻译质量提高达到 2.3% 的 BLEU 绝对值的效果。
本文提出神经短语机器翻译模型 (NPMT),采用基于分段的序列建模方法 (SWAN) 显式建模翻译序列中的短语结构并引入新层实现局部重新排序 (Soft)。相比于基于注意力机制的 NMT 方法,NPMT 直接以顺序方式输出短语,因此可以在线性时间内解码,实验表明与强 NMT 基准模型相比,在 IWSLT 2014 德英 / 英德和 IWSLT 2015 英越机器翻译任务上表现优越,并且 NPMT 模型的输出翻译语言有意义。
Jun, 2017
该研究研究了如何在只有大型单语语料库的情况下学习翻译。提出了两种模型,一种是神经模型,一种是基于短语的模型。这些模型通过参数的精心初始化、语言模型的去噪效应和反向迭代自动生成的并行数据来提高翻译性能。在 WMT'14 英语 - 法语和 WMT'16 德语 - 英语 基准测试上,这些模型分别获得 28.1 和 25.2 BLEU 分数,比现有方法的 BLEU 分数高出 11 个分数。方法在英语 - 乌尔都语和英语 - 罗马尼亚语等低资源语言中也取得了良好的结果。
Apr, 2018
通过使用外部内存来增强神经机器翻译中 RNN 解码器的性能,我们提出了一种名为 MemDec 的基于内容寻址的 RNN 解码器。 通过在汉英翻译任务中的实证研究,我们发现 MemDec 相对于 Groundhog 和 Moses,可以提高 4.8 和 5.3 BLEU 分数,从而在相同的训练集上获得最佳性能。
Jun, 2016
本文旨在解决传统编码器 - 解码器架构中的长度固定向量制约所面临的性能瓶颈,并提出一种基于(软)搜索方式的新方法,在英法翻译任务中获得了与基于短语的模型相当的翻译性能,且(软)对齐结果与人类直觉相符。
Sep, 2014