从整体到特定:基于领域转换网络的多领域翻译
本文提出了一种神经机器翻译方法,通过将文本领域视为不同的语言并使用多语言 NMT 方法创建多领域翻译系统,从而实现在单个模型中支持多个领域,我们的方法在翻译质量上有显著提高。同时探究了预先指定文本领域的必要性,发现预先指定领域是必须的,但即使未知也可以达到相当高的翻译质量。
May, 2018
本篇论文提出了使用独立词向量模块和基于词级别注意力机制的领域混合方法来实现多领域神经机器翻译的知识共享和精细化领域特定知识获取,实验结果表明该模型在多项 NMT 任务中表现优秀。
Nov, 2019
本文提出一种双重迭代领域自适应框架,通过多层反向翻译知识传输来提高公共领域的翻译知识的提取效果,并通过将这种转移策略应用于多个不同相似度的领域进行了验证。该框架在中英文和英德文翻译任务中取得了令人满意的实验结果。
Dec, 2019
本文讨论了如何在多领域和多语言神经机器翻译 (MDML-NMT) 中跨语言传输领域信息,以提高零样本翻译性能和帮助域缺失的多领域 NMT 的泛化。通过组合多语言和多领域 NMT 及添加编码器目标语言标签等有效策略,实现了学习到有针对性的表示和提高性能的目的。
Oct, 2022
通过对多个领域进行翻译的唯一神经网络在运行时进行的域控制技术,生成的神经机器翻译模型不需要针对每个领域重新估算模型参数,为真实使用场景提供了一种有效的方法,且无论是针对任何一个领域还是针对未知域的数据翻译,本文所提出的新技术都显示了质量的提高。
Dec, 2016
本研究提出了一种利用预训练语言模型进行领域特定数据增强的领域自适应新方法,通过该方法,配合回译技术,可生成大量合成双语的领域内数据,从而显著改进了机器翻译的领域内文本的翻译效果。人工评估结果进一步证实了自动评估结果的准确性。
Aug, 2022
本文利用联邦学习来处理复杂的混合域翻译模型训练任务,证明了在训练过程中进行轻微的修改并采用基于联邦学习的聚合方法,可以轻松地适应不同域,从而构建出与依赖于集中式训练技术的最先进基准相媲美的神经机器翻译引擎。同时,此研究还在五个数据集上进行了验证,并论述了 FL 和 NMT 如何互相受益。此外,研究者们还提出了一种新的技术,通过在 FL 更新期间选择具有影响力的参数来动态控制通信带宽大小,针对需要在 FL 双方之间交换非常大的 NMT 引擎的情况,这是一项重要的成果。
May, 2022
本文以神经机器翻译模型中存在的少量翻译为挑战,提出通过将 NMT 模型的解码器与一种代表目标句子领域的潜在变量相结合以从源句子中推测出更多翻译,同时训练一个目标编码器以生成离散变量表示目标句子的领域,为解码器提供关键输入,由此解码器能够根据不同的领域生成不同领域的翻译。经过在三个数据集上的测试,本方法产生的翻译在质量和多样性上都优于最强基准线。
Sep, 2020
本文提出了一种新颖的领域自适应方法 ——“混合微调”,用于神经机器翻译。该方法将微调和多领域 NMT 两种现有方法相结合,并在一个混合了内外领域语料库的平行语料库上对 NMT 模型进行微调,然后通过增加人工标记来指示特定领域对所有语料库进行增强。我们在实证基础上比较了我们的方法与微调和多领域方法,讨论了它的优点和缺点。
Jan, 2017