改进神经机器翻译的语言模型集成
通过将单语数据与自动背景翻译配对,我们未改变神经网络结构,使用目标语单语训练数据进行神经机器翻译(NMT)模型的训练,并在多项任务上取得最新的最优结果(最高 + 2.8-3.7 BLEU),并证明了使用领域单语和平行数据进行微调,对 IWSLT 15 任务英德翻译有实质性的改善。
Nov, 2015
本研究比较了将语言模型融合进神经机器翻译的几种方法,并提出了一种新的利用预训练语言模型得分的简单方法,使得翻译模型能够专注于源语言建模,从而在四个测试数据集上取得了 BLEU 值 0.24 至 2.36 的提升。
Sep, 2018
本文提出了一种新方法,通过联合 EM 优化方法融合源语言和目标语言的神经机器翻译模型,以更好地利用单语数据来提高翻译质量,实验结果表明,相对于使用单语数据训练的强基线系统,该方法可以同时提高源到目标和目标到源模型的翻译质量。
Mar, 2018
利用自训练策略改进 Neural Machine Translation(NMT)模型,通过反向翻译技术来生成高质量的合成数据以训练标准翻译模型,可提高低资源下的翻译品质,提高翻译模型的 BLEU 值。
Jun, 2020
本文对神经机器翻译的数据生成进行了系统研究,比较了不同的单语数据使用方法和多个数据生成过程,并介绍了一些便宜易实现的新数据模拟技术。研究发现,通过回译技术生成人工平行数据非常有效,并给出了原因解释。
Mar, 2019
本研究探讨了使用回译数据对 NMT 模型性能的影响,通过逐步增加回译数据来训练一系列以德语为源语言,以英语为目标语言的 NMT 系统,并分析了相应的翻译绩效。
Apr, 2018
本研究针对机器翻译系统在句子级别上操作的限制,提出了利用文档级单语数据构建上下文感知翻译系统的方法,并通过结合现有句子级翻译模型和文档级语言模型,改进了现有方法,并提出了新的权重技术以提高系统组合的灵活性和降低计算开销。通过对四个不同的翻译任务进行全面评估,结果显示我们的改进能够显著提高面向文档的评分,并在计算上更高效。但在大多数情况下,通过再训练翻译系统进行反向翻译可以获得更好的结果。最后,我们探索了基于大语言模型的语言模型融合,在最新的大语言模型进展的基础上取得了一定的潜力。
Oct, 2023
本文提出了一种基于多任务学习方法,利用源端的单语言语言资源来解决神经机器翻译中由于缺少平行文本造成模型质量差的问题,并采用语义分析、句法分析和命名实体识别等辅助任务以将语义和 / 或句法知识注入到翻译模型中,实现了在英法、英波斯和英越三种翻译任务上的有效性验证。
May, 2018
该研究采用动态融合机制,将翻译模型和语言模型结合,提高了英日机器翻译的 BLEU 和 RIBES 得分,并允许符合适当语法结构的预测性语言建模。
Sep, 2019
本文研究了两个方向在低资源的神经机器翻译中的应用。第一种方向利用高资源语言通过多语言 NMT 来提高低资源语言的翻译质量。第二种方向利用自监督单语数据来预训练翻译模型并在少量监督数据的支持下进行 fine-tuning。本研究结合这两种方向,证明了单语数据对于多语言 NMT 的有效性,并提出了三个重要结果:(i) 使用单语数据显著提高了多语言模型中低资源语言的翻译质量。(ii) 自监督在多语言模型中提高了零样本翻译质量。(iii) 利用带自监督的单语数据为多语言模型添加新语言提供了一条可行的路径,在没有任何平行数据或回译的情况下,对于罗马尼亚 - 英语的翻译获得了高达 33 BLEU 的结果。
May, 2020