该研究提出了一种转移学习的方法,通过先训练一个高资源语言对以及将一些已学习的参数转移至低资源语言对,来初始化和约束训练,显著提高了 Bleu 分数,并将低资源机器翻译性能接近于强的基于语法的机器翻译系统,超过了其一个语言对的性能,并且用于重新评分可以进一步提高低资源机器翻译的表现。
Apr, 2016
本研究提出了一种简单的迁移学习方法,通过训练 “父模型” 并在低资源语言对上进行训练,取代了原有的训练语料库,成功地提高了针对不同语言对的机器翻译性能。
Sep, 2018
本论文研究如何使用语言重叠来进行翻译,在仅有少量单语数据的情况下,结合去噪自编码、回译和对抗性目标,提出了一种名为 NMT-Adapt 的方法,实现了对低资源语言的翻译的提高。
May, 2021
本文使用端到端的 Siamese 双向递归神经网络从 Wikipedia 的可比较多语言文章中提取并生成平行句子,证明使用所收集的数据集可以提高低资源语言对 (英―印度语和英―泰米尔语) 上的 BLEU 分数。
Jun, 2018
本研究提出了一种新颖的基于跨语言词向量的神经网络模型,通过高覆盖的双语词典训练,利用跨语言模型转移的方法,针对低资源语言的注释预测问题提出了解决方案,并通过多种主动学习启发式方法,提升了该方法的性能。
May, 2017
本文提出了一种新颖的语言无关方法,通过利用资源丰富的语言与资源贫乏的语言的相似性来改善后者的机器翻译,以达到减少训练数据的目的,并且评估结果表明,在少量并行语料库的情况下,改进了印尼语到英语和西班牙语到英语的翻译质量。
Jan, 2014
本文提出一种跨媒体对比学习方法,将几种低资源语言与高资源语言相连,通过少量的图像 - 文本对实现神经机器翻译,取得了显著的效果。
Oct, 2022
本研究提出了一种神经机器翻译(NMT)模型间的知识转移方法,通过共享动态词汇表来适应新语言,以达到提高翻译性能的目的,并在多种语言方向上进行了实验,结果表明具有良好的性能。
Nov, 2018
本文提出了一种名为 Overlap BPE 的用于增强低网络资源语言在多语言模型中表示的词汇生成算法,并通过多项实验表明,通过增加相关语言之间的词汇重叠度,可以在不降低高网络资源语言表示和准确性的前提下,提高相关低网络资源语言的零样本学习的效果。
Mar, 2022
即使有深度学习和大规模语言建模的最新发展,对于低资源语言的机器翻译任务仍然是一个挑战。我们提出了一种训练策略,依赖于从单语语料库中挖掘的伪平行句对和从单语语料库中反向翻译的合成句对。我们尝试了不同的训练计划,并在基于仅反向翻译数据训练的基线上实现了高达 14.5 BLEU 分(从英语到乌克兰语)的改进。
Oct, 2023