本文提出了一种新的检索增强 NMT 模型,用于对比检索翻译记忆,利用 Hierarchical Group Attention 模块和 Multi-TM contrastive learning 目标函数增加多层面信息收益,实验结果表明,该模型在基准数据集上优于现有算法。
Dec, 2022
本文介绍了一种将翻译记忆集成到神经机器翻译系统中的简单有效方法,并在多个数据集上获得实验性能显著优于强基线模型的结果。
Jan, 2023
本文介绍了一种基于神经网络的新型方法,借助跨语言句子嵌入来利用目标语言单语语料库检索翻译建议,并使用神经模型估计其后编辑工作量,通过自动和人工评估证明此方法可以在以传统翻译记忆为基础的计算机辅助翻译环境中成功利用单语文本,增加有用翻译建议的数量。
Jan, 2024
本研究提出了一种基于注意力机制的神经机器翻译(NMT)模型,并允许它在训练后访问整个平行句子对训练集。该模型由两个阶段组成:检索阶段和翻译阶段,实现了在源句子和一组检索的平行句子对之间的平滑翻译。在三种语言(En-Fr,En-De 和 En-Es)上的实证评估表明,该方法显著优于基准方法,并且当检索到更相关的平行句子对时,改进效果更为显著。
May, 2017
提出了一种基于多任务学习的框架,通过对单语数据的两个去噪任务和双语数据的翻译任务联合训练模型,显著提高了多语言 NMT 系统的翻译质量,并在零样本学习的情况下证明了该方法的有效性。
Oct, 2020
通过将单语数据与自动背景翻译配对,我们未改变神经网络结构,使用目标语单语训练数据进行神经机器翻译(NMT)模型的训练,并在多项任务上取得最新的最优结果(最高 + 2.8-3.7 BLEU),并证明了使用领域单语和平行数据进行微调,对 IWSLT 15 任务英德翻译有实质性的改善。
Nov, 2015
本研究提出了一种全新的方法,在没有平行数据的情况下,只利用单语数据即可训练 NMT 系统。这种基于注意力机制的编码器解码器模型结合去噪和回译技术, 在 WMT 2014 的法英和德英翻译中获得了 15.56 和 10.21 BLEU 分数,且能够利用少量的平行数据来提高翻译质量。
Oct, 2017
利用翻译记忆作为提示是一种有前途的机器翻译模型上下文学习方法,本文通过使用大型语言模型进行提示,发现 LLM 的‘理解’提示的能力确实有助于更好地利用 TMs,并通过实验证明,使用高质量的 TM 提示可以大大改善预先训练的 LLM 翻译器的结果,甚至可以与最新状态下大规模领域内双语数据和针对下游任务进行调整的 NMT 系统的结果相媲美。
May, 2023
本研究比较了将语言模型融合进神经机器翻译的几种方法,并提出了一种新的利用预训练语言模型得分的简单方法,使得翻译模型能够专注于源语言建模,从而在四个测试数据集上取得了 BLEU 值 0.24 至 2.36 的提升。
Sep, 2018
使用翻译记忆进行模糊匹配的神经机器翻译系统,存在与测试数据不匹配的领域问题。作者提出了一种简单的方法,在训练期间暴露模糊匹配,从而使系统对与测试数据不匹配的翻译记忆具有更好的容错性,并且该模型在使用相关翻译记忆的情况下仍然具有竞争力。
Oct, 2022