利用领域不变和特定信息提升领域自适应翻译
通过对多个领域进行翻译的唯一神经网络在运行时进行的域控制技术,生成的神经机器翻译模型不需要针对每个领域重新估算模型参数,为真实使用场景提供了一种有效的方法,且无论是针对任何一个领域还是针对未知域的数据翻译,本文所提出的新技术都显示了质量的提高。
Dec, 2016
本文提出了一种在机器翻译中称之为“专业化”的领域适应方法,对该方法进行了探索,并发现其在学习速度和适应精度方面的结果表现出色。该方法尤其适用于计算机辅助翻译(CAT)中的人类后期编辑工作流程,特别是在术语、领域和风格适应方面。
Dec, 2016
本文介绍了『Domain Differential Adaptation(DDA)』的框架,该框架通过使用相关任务中的模型直接建模不同领域之间的差异,从而成功地应用于神经机器翻译的领域自适应中,并在多个实验设置中实现比其他替代方法更好的改进效果。
Oct, 2019
本篇论文提出一种利用领域转换网络、知识蒸馏和对抗学习等方法,解决多领域翻译中通用和特定知识的统一建模问题,并在多种语言对上得到了比fine-tuning方法更为优秀的结果。
Nov, 2019
本文提出一种双重迭代领域自适应框架,通过多层反向翻译知识传输来提高公共领域的翻译知识的提取效果,并通过将这种转移策略应用于多个不同相似度的领域进行了验证。该框架在中英文和英德文翻译任务中取得了令人满意的实验结果。
Dec, 2019
该研究介绍了一种基于神经机器翻译的重要性修剪方法,通过知识蒸馏和参数细调,解决了域自适应中的遗忘、差异和模型爆炸等问题,从而达到了在通用域和特定域翻译中都取得显著提高的目的。
Mar, 2021
提出了一种基于自动编码器的$k$NN-MT方法,可以利用目标语言的单语句子构建有效的数据库来达到无监督的领域自适应翻译,从而提高翻译的准确性和可靠性。
Sep, 2021
本文探讨了基于元学习的神经机器翻译领域自适应的两个问题;一是如何实现跨领域鲁棒性,即在训练数据包括两个领域时获得高质量的翻译结果;二是如何实现适应性,即仅利用数百个领域内的平行句子对系统进行微调。我们的研究表明,我们提出的元学习模型(RMLNMT)能够显著提高模型的领域鲁棒性和适应性,同时包括已知领域和未知领域。
Dec, 2021
本研究探讨了针对预训练第三方 NMT 模型的单语和平行数据方法在领域适应中的效果,在低资源条件下提出了集成方法来缓解翻译质量的降低,并给出了在三个领域和四个语言对中的建议。
Jun, 2022