通过建议重排序提高检索增强翻译的稳健性
提出了一种新的方法,控制源句子和前 K 模糊匹配目标语言句子之间的交互,用于零样本自适应的机器翻译模型,实验证明该方法超越了以前的方法,提高了 BLEU 的分数,并在多个语言对和领域上进行了测试。
Oct, 2022
本研究通过概率检索和方差 - 偏差分解原理,重新思考了翻译记忆增强神经机器翻译(TM-augmented NMT)。研究发现,TM-augmented NMT 能够很好地拟合数据,但对训练数据的波动更为敏感,为同一翻译任务上最近报告的矛盾现象提供了解释。本文提出了一种简单而有效的 TM-augmented NMT 模型,以促进方差和解决矛盾现象。广泛的实验表明,在两种低方差(低资源和即插即用)方案以及高资源情景下,所提出的 TM-augmented NMT 均实现了相对于传统 NMT 和现有 TM-augmented NMT 的一致的收益。
Jun, 2023
本文提出了一种新的检索增强 NMT 模型,用于对比检索翻译记忆,利用 Hierarchical Group Attention 模块和 Multi-TM contrastive learning 目标函数增加多层面信息收益,实验结果表明,该模型在基准数据集上优于现有算法。
Dec, 2022
本研究提出了一种基于注意力机制的神经机器翻译(NMT)模型,并允许它在训练后访问整个平行句子对训练集。该模型由两个阶段组成:检索阶段和翻译阶段,实现了在源句子和一组检索的平行句子对之间的平滑翻译。在三种语言(En-Fr,En-De 和 En-Es)上的实证评估表明,该方法显著优于基准方法,并且当检索到更相关的平行句子对时,改进效果更为显著。
May, 2017
提出了一种新颖的基于检索增强的 Levenshtein Transformer 架构,旨在提高 Retrieval-Augmented Machine Translation 的透明度,并通过编辑多个模糊匹配的示例来改善翻译得分。
Oct, 2023
通过搜索引擎检索以前见过的语句,然后提取这些语句中与源语句匹配的 $n$-grams 以实现将历史翻译例子加入到神经机器翻译模型中,因此提高翻译效果。
Apr, 2018
利用翻译记忆作为提示是一种有前途的机器翻译模型上下文学习方法,本文通过使用大型语言模型进行提示,发现 LLM 的‘理解’提示的能力确实有助于更好地利用 TMs,并通过实验证明,使用高质量的 TM 提示可以大大改善预先训练的 LLM 翻译器的结果,甚至可以与最新状态下大规模领域内双语数据和针对下游任务进行调整的 NMT 系统的结果相媲美。
May, 2023
本文研究了机器翻译模型在未知领域中的性能表现,发现在未知领域中,统计机器翻译(SMT)和神经机器翻译(NMT)系统存在不同的问题:SMT 系统通常足够但不流利,而 NMT 系统流利但不足够。本文发现,NMT 系统出现的 “幻觉” 现象是造成低域稳健性的主要原因,研究并比较了有关提高 NMT 系统稳健性的方法,实验结果表明,这些方法能够稍微提高 NMT 系统翻译的充分性,但对流畅性的提高较小。
Nov, 2019