逐步翻译:通过中间序列提高神经机器翻译的领域鲁棒性
本篇论文提出一种利用领域转换网络、知识蒸馏和对抗学习等方法,解决多领域翻译中通用和特定知识的统一建模问题,并在多种语言对上得到了比 fine-tuning 方法更为优秀的结果。
Nov, 2019
本文以神经机器翻译模型中存在的少量翻译为挑战,提出通过将 NMT 模型的解码器与一种代表目标句子领域的潜在变量相结合以从源句子中推测出更多翻译,同时训练一个目标编码器以生成离散变量表示目标句子的领域,为解码器提供关键输入,由此解码器能够根据不同的领域生成不同领域的翻译。经过在三个数据集上的测试,本方法产生的翻译在质量和多样性上都优于最强基准线。
Sep, 2020
本文提出了一种新颖的方法使用基于 5-gram KenLM 语言模型的缩放相似性分数,尤其是对于相关语言,该方法使用 Kneser-ney 平滑技术从域内数据中过滤出域外数据,以提高机器翻译的翻译质量。 此外,我们采用了其他域自适应技术,如多域、微调和迭代回译方法,以比较我们在 Hindi-Nepali 语言对上的新方法在 NMT 和 SMT 上的效果,我们的方法在多域方法上增加了约 2 个 BLEU 点,在微调 NMT 方面提高了约 3 个 BLEU 点,在迭代回译上提高了约 2 个 BLEU 点。
Mar, 2023
本论文提出一种结合了回译和多语言神经机器翻译技术的新技术,通过为一个语言对训练一个模型来改善在低资源和跨领域情况下的机器翻译效果,并且能显著降低培训和部署成本。
May, 2018
本文提出了一种神经机器翻译方法,通过将文本领域视为不同的语言并使用多语言 NMT 方法创建多领域翻译系统,从而实现在单个模型中支持多个领域,我们的方法在翻译质量上有显著提高。同时探究了预先指定文本领域的必要性,发现预先指定领域是必须的,但即使未知也可以达到相当高的翻译质量。
May, 2018
本文介绍了一种基于相互信息最大化的神经机器翻译模型,该模型使用一种简单的重新排序方法和一种增加 N-best 列表多样性的解码算法,应用于 WMT 德英和法英任务中,该模型能够在标准 LSTM 和基于注意力的神经机器翻译体系结构上提供持续的性能提升。
Jan, 2016
通过对多个领域进行翻译的唯一神经网络在运行时进行的域控制技术,生成的神经机器翻译模型不需要针对每个领域重新估算模型参数,为真实使用场景提供了一种有效的方法,且无论是针对任何一个领域还是针对未知域的数据翻译,本文所提出的新技术都显示了质量的提高。
Dec, 2016
本文讨论了如何在多领域和多语言神经机器翻译 (MDML-NMT) 中跨语言传输领域信息,以提高零样本翻译性能和帮助域缺失的多领域 NMT 的泛化。通过组合多语言和多领域 NMT 及添加编码器目标语言标签等有效策略,实现了学习到有针对性的表示和提高性能的目的。
Oct, 2022
该研究提出了一种将神经机器翻译(NMT)与传统的统计机器翻译(SMT)相结合的新方案,利用贝叶斯风险进行组合,并成功地在英德和日英翻译方面得到了显著的提升。
Dec, 2016
本文提出一种双重迭代领域自适应框架,通过多层反向翻译知识传输来提高公共领域的翻译知识的提取效果,并通过将这种转移策略应用于多个不同相似度的领域进行了验证。该框架在中英文和英德文翻译任务中取得了令人满意的实验结果。
Dec, 2019