研究神经机器翻译中的自适应集成加权,解决在不牺牲原始域性能的情况下提高新领域性能,通过两个西班牙语 - 英语和三个英语 - 德语任务的逐步适应比较,提出自适应 NMT 集成解码的新方案,采用源信息扩展贝叶斯插值,并在没有域标签的情况下在测试领域中展现了较强的改进。
Jun, 2019
本文提出了一种神经机器翻译方法,通过将文本领域视为不同的语言并使用多语言 NMT 方法创建多领域翻译系统,从而实现在单个模型中支持多个领域,我们的方法在翻译质量上有显著提高。同时探究了预先指定文本领域的必要性,发现预先指定领域是必须的,但即使未知也可以达到相当高的翻译质量。
May, 2018
本研究利用实例级域相关特征和自动构建培训计划的方式,同时为多领域进行数据选择;经过大规模实验,证明多领域计划能达到或超过单独培训的性能,并带来实质收益。
Aug, 2019
本文提出了一种新颖的领域自适应方法 ——“混合微调”,用于神经机器翻译。该方法将微调和多领域 NMT 两种现有方法相结合,并在一个混合了内外领域语料库的平行语料库上对 NMT 模型进行微调,然后通过增加人工标记来指示特定领域对所有语料库进行增强。我们在实证基础上比较了我们的方法与微调和多领域方法,讨论了它的优点和缺点。
Jan, 2017
本文提出了一种新的多语种多阶段微调方法,融合了领域自适应、多语言和反向翻译,通过利用域外数据的转移学习方法来帮助改善日俄低资源神经机器翻译的质量。
Jul, 2019
本篇论文提出了使用独立词向量模块和基于词级别注意力机制的领域混合方法来实现多领域神经机器翻译的知识共享和精细化领域特定知识获取,实验结果表明该模型在多项 NMT 任务中表现优秀。
Nov, 2019
本文讨论了如何在多领域和多语言神经机器翻译 (MDML-NMT) 中跨语言传输领域信息,以提高零样本翻译性能和帮助域缺失的多领域 NMT 的泛化。通过组合多语言和多领域 NMT 及添加编码器目标语言标签等有效策略,实现了学习到有针对性的表示和提高性能的目的。
Oct, 2022
本篇论文提出一种利用领域转换网络、知识蒸馏和对抗学习等方法,解决多领域翻译中通用和特定知识的统一建模问题,并在多种语言对上得到了比 fine-tuning 方法更为优秀的结果。
本研究提供了一种训练多领域、基于递归神经网络的语言生成器的程序,包含了多个适应步骤,并利用伪造数据和领域内句子的优化目标函数,旨在在新的、看不见的领域内显著减少培训的数据需求,其语料库评估结果和主观测试都表示该程序可以在保证 BLEU 分数和槽误差率竞争力的同时大幅提高语言生成器性能。
Mar, 2016
本篇论文提出一种无需领域注释数据的多领域机器翻译模型,包括骨干模型、领域鉴别器和一组专家。通过阶段式训练策略并结合聚类和多分类任务建模领域差异以及采用 Gumbel-Max 采样进行专家训练,该模型在德语到英语翻译任务中取得了较好的效果。
May, 2023