利用翻译记忆作为提示是一种有前途的机器翻译模型上下文学习方法,本文通过使用大型语言模型进行提示,发现 LLM 的‘理解’提示的能力确实有助于更好地利用 TMs,并通过实验证明,使用高质量的 TM 提示可以大大改善预先训练的 LLM 翻译器的结果,甚至可以与最新状态下大规模领域内双语数据和针对下游任务进行调整的 NMT 系统的结果相媲美。
May, 2023
通过将多种类型的知识,如句子、术语 / 短语和翻译模板有效地融入神经机器翻译 (NMT) 模型,我们提出了一个统一的框架,无需修改模型架构即可实现领域特定的翻译,显著提高了翻译质量和术语匹配准确性。
Dec, 2023
本研究提出了一种新的框架,使用单语记忆并以跨语言方式进行可学习的记忆检索,以增强神经机器翻译性能,并展示其在较低资源和领域适应情况下的有效性。
May, 2021
本文提出了将 SMT 模型融入 NMT 框架,通过辅助分类器和门函数来结合 SMT 的推荐和 NMT 的生成,从而提高中英翻译的性能。实验结果表明,该方法在多个测试集上均显著优于现有的 NMT 和 SMT 系统。
Oct, 2016
本文提出了一种新的检索增强 NMT 模型,用于对比检索翻译记忆,利用 Hierarchical Group Attention 模块和 Multi-TM contrastive learning 目标函数增加多层面信息收益,实验结果表明,该模型在基准数据集上优于现有算法。
Dec, 2022
通过搜索引擎检索以前见过的语句,然后提取这些语句中与源语句匹配的 $n$-grams 以实现将历史翻译例子加入到神经机器翻译模型中,因此提高翻译效果。
Apr, 2018
Google 发布的 GNMT 神经机器翻译系统采用 LSTM 深度学习网络,使用 attention 机制和残差连接,借助词元素 (wordpieces) 将单词划分为子单元,提高了稀有单词处理能力与整体系统精度。
Sep, 2016
本研究提出了一种基于注意力机制的神经机器翻译(NMT)模型,并允许它在训练后访问整个平行句子对训练集。该模型由两个阶段组成:检索阶段和翻译阶段,实现了在源句子和一组检索的平行句子对之间的平滑翻译。在三种语言(En-Fr,En-De 和 En-Es)上的实证评估表明,该方法显著优于基准方法,并且当检索到更相关的平行句子对时,改进效果更为显著。
May, 2017
使用词汇短语转换(phrase-based machine translation)方法预处理输入,进而提升神经机器翻译(NMT)的翻译质量,在英德翻译任务中,使用该方法的性能跃升 2 个 BLEU 分数,同时分析了初始系统质量对最终结果的影响。
本文追溯了现代神经机器翻译体系结构的起源,重点探讨了单个神经网络在翻译中的应用,其中涉及到 word 和 sentence embedding 以及编码器 - 解码器网络家族的早期示例,并总结了该领域的最新趋势。
Dec, 2019