本篇论文提出了动态神经机器翻译 (Dynamic NMT) 的方法,通过对测试句子进行微调以适应具体场景,从而显着提高翻译性能。该方法特别适用于高度相似的句子。
Sep, 2016
本研究探讨了数据选择技术在神经机器翻译方面的应用,介绍了一种逐步微调的动态数据选择方法,并展示了该方法在数据选择方面的领先优势。
Aug, 2017
本研究针对神经机器翻译存在的训练误差积累和过度校正问题,提出了一种从训练模型的预测序列中采样上下文词并使用句子级优化方法选择预测序列的训练策略,并在中英互译和 WMT'14 英德互译数据集上得到了显著提高。
Jun, 2019
本研究提出一种动态课程学习方法,通过衡量模型的收益和能力来调整训练样本的顺序,从而使训练低资源神经机器翻译模型更加高效。在 Transformer-based 系统上的实验结果表明,该方法优于几个强基线,并适用于不同大小的 low-resource 机器翻译基准。
Nov, 2020
提出了一种用于机器翻译的神经网络模型,其能够动态决定何时继续输入源文本或生成翻译文本,通过使用单向或双向编码器来处理实际语音和文本输入,使用词对齐方法生成分块训练数据,并在 IWSLT 2020 英 - 德任务上优于 wait-k 基线 2.6 到 3.7% BLEU 中的结果。
May, 2020
本文拟通过选择在新领域非标记数据中的全句和短语,将其路由至人类翻译,解决神经机器翻译在领域转移方面的限制,从而在德语 - 英语翻译任务上,相比于不确定性句子选择方法,实现了一定程度的改进。
Jun, 2021
本研究提出了一种基于注意力机制的神经机器翻译(NMT)模型,并允许它在训练后访问整个平行句子对训练集。该模型由两个阶段组成:检索阶段和翻译阶段,实现了在源句子和一组检索的平行句子对之间的平滑翻译。在三种语言(En-Fr,En-De 和 En-Es)上的实证评估表明,该方法显著优于基准方法,并且当检索到更相关的平行句子对时,改进效果更为显著。
May, 2017
本研究提出了一种神经机器翻译(NMT)模型间的知识转移方法,通过共享动态词汇表来适应新语言,以达到提高翻译性能的目的,并在多种语言方向上进行了实验,结果表明具有良好的性能。
Nov, 2018
本文提出了一种基于不确定性采样的自训练方法,通过选择最具信息价值的单一语言句子来补充平行数据,以提高 NMT 的性能,在大规模数据集上进行实验证明了这种方法的有效性,并表明该方法能够提高翻译质量和预测低频单词。
通过动态的课程学习策略和基于句子当前质量及其相对于上一轮迭代的改进的加权策略,我们提出了基于背翻译的模型并在领域适应、低资源和高资源机器翻译任务上取得了竞争性的成果。
Apr, 2020