学习如何通过韩语翻译朝鲜语
本文提出了一种新方法,通过联合 EM 优化方法融合源语言和目标语言的神经机器翻译模型,以更好地利用单语数据来提高翻译质量,实验结果表明,相对于使用单语数据训练的强基线系统,该方法可以同时提高源到目标和目标到源模型的翻译质量。
Mar, 2018
通过将单语数据与自动背景翻译配对,我们未改变神经网络结构,使用目标语单语训练数据进行神经机器翻译(NMT)模型的训练,并在多项任务上取得最新的最优结果(最高 + 2.8-3.7 BLEU),并证明了使用领域单语和平行数据进行微调,对 IWSLT 15 任务英德翻译有实质性的改善。
Nov, 2015
本文研究通过引入更多本地依赖关系和使用单词对齐来学习翻译过程中的句子重新排序,在低资源语言中使用神经机器翻译 (NMT) 模型,产生仅使用 7 万个训练数据令人满意的翻译结果。
Aug, 2017
本研究探讨了使用回译数据对 NMT 模型性能的影响,通过逐步增加回译数据来训练一系列以德语为源语言,以英语为目标语言的 NMT 系统,并分析了相应的翻译绩效。
Apr, 2018
提出了一种双向学习机制(dual-learning mechanism),通过强化学习过程,使用一个代理模型代表原始任务模型,另一个代理模型代表对偶任务模型,以无监督学习方式自动从无标注数据中学习。实验证明,该方法在英法翻译中表现良好,尤其是在使用单语数据的情况下。
Nov, 2016
本文提出了一种名为 NMT+RNNG 的混合模型,它将循环神经网络语法与基于注意力的神经机器翻译相结合,通过训练鼓励神经机器翻译模型吸收语言先验知识,并在其后进行自主翻译。4 种语言配对的实验表明该模型非常有效。
Feb, 2017
本文探讨使用外部语言模型和针对内部隐式语言模型所采用的方法,在神经机器翻译任务中在线性融合语言模型方面的性能表现,发现考虑隐式语言模型可极大提高模型性能,但背向翻译仍然是最有效的方法。
Jun, 2023
探讨使用现代神经机器翻译技术实现英语翻译成五种南非官方语言(Afrikaans、isiZulu、Northern Sotho、Setswana、Xitsonga),提供可重复使用的数据、代码和结果,为非洲机器翻译研究提供比较和承建的起点。
Jun, 2019