神经机器翻译的领域差异适应
本文提出了一种在机器翻译中称之为“专业化”的领域适应方法,对该方法进行了探索,并发现其在学习速度和适应精度方面的结果表现出色。该方法尤其适用于计算机辅助翻译(CAT)中的人类后期编辑工作流程,特别是在术语、领域和风格适应方面。
Dec, 2016
本文介绍了一种适应新领域的神经机器翻译(NMT)系统,并展示了在两种语言对上,适应方法相比于常用方法在自动和人工评估测量标准下的显著性提升,而一般领域性能仅略有下降,适应过程快速且不需要重新训练NMT模型。
Dec, 2016
本文提出了一种新颖的领域自适应方法——“混合微调”,用于神经机器翻译。该方法将微调和多领域 NMT 两种现有方法相结合,并在一个混合了内外领域语料库的平行语料库上对NMT模型进行微调,然后通过增加人工标记来指示特定领域对所有语料库进行增强。我们在实证基础上比较了我们的方法与微调和多领域方法,讨论了它的优点和缺点。
Jan, 2017
本文提出了一种基于编码器-解码器框架的方法,以明确建模领域特定特征和常用特征的信息分离,通过敌对训练强化信息分离和机器翻译的表现,并在多个数据集上表现出优越的性能。
Apr, 2019
本文提出了一种无监督的自适应方法,使用伪域内语料库通过微调预先训练的域外NMT模型,借助词典诱导提取域内词汇,并通过针对性的单语域内目标句子进行逐词反向翻译构建伪平行域内语料库,在20对自适应设置和两种模型架构的五个领域中,我们的方法始终显示出提高,而不需要使用任何域内平行句子,改进了未经过调整的模型高达14 BLEU和强反向翻译基线的最高2 BLEU。
Jun, 2019
本文提出一种双重迭代领域自适应框架,通过多层反向翻译知识传输来提高公共领域的翻译知识的提取效果,并通过将这种转移策略应用于多个不同相似度的领域进行了验证。该框架在中英文和英德文翻译任务中取得了令人满意的实验结果。
Dec, 2019
该研究介绍了一种基于神经机器翻译的重要性修剪方法,通过知识蒸馏和参数细调,解决了域自适应中的遗忘、差异和模型爆炸等问题,从而达到了在通用域和特定域翻译中都取得显著提高的目的。
Mar, 2021
本文探讨了基于元学习的神经机器翻译领域自适应的两个问题;一是如何实现跨领域鲁棒性,即在训练数据包括两个领域时获得高质量的翻译结果;二是如何实现适应性,即仅利用数百个领域内的平行句子对系统进行微调。我们的研究表明,我们提出的元学习模型(RMLNMT)能够显著提高模型的领域鲁棒性和适应性,同时包括已知领域和未知领域。
Dec, 2021
本研究探讨了针对预训练第三方 NMT 模型的单语和平行数据方法在领域适应中的效果,在低资源条件下提出了集成方法来缓解翻译质量的降低,并给出了在三个领域和四个语言对中的建议。
Jun, 2022