低资源神经机器翻译调查
本文研究通过引入更多本地依赖关系和使用单词对齐来学习翻译过程中的句子重新排序,在低资源语言中使用神经机器翻译(NMT)模型,产生仅使用7万个训练数据令人满意的翻译结果。
Aug, 2017
本文利用元学习算法(MAML)扩展低资源NMT问题,并通过多语言高资源任务进行学习来适应低资源语言,并利用全局词汇表解决不同语言的输入输出错配, 在使用18种欧洲语言作为源任务和5种不同的语言作为目标任务的情况下,相对于基于多语言、迁移学习的方法,表明所提出的方法显著优于现有方法,并仅需少量训练示例即可获得具有竞争力的NMT系统。
Aug, 2018
本文探讨神经网络机器翻译(NMT)在低资源条件下性能下降的原因,提出适应低资源环境时的注意事项和最佳实践,并在德语-英语和韩语-英语低资源翻译数据集上进行实验,发现经过优化的NMT系统可以在没有使用其他语言辅助数据的情况下,比以前报告的更少数据超越采用词组统计的基于规则的机器翻译(PBSMT),BLEU指标超过4个点。
May, 2019
本文提出一种简单但有效的方法,即将目标语句重新排序以匹配源语序,并将其作为另外一种训练时的监督信号,从而在模拟低资源日语 - 英语和真实低资源维吾尔 - 英语语种中获得显着改进。
Aug, 2019
研究了最近神经机器翻译 (NMT) 在英语和五种非洲低资源语言 (LRL) 对之间的效果,并表明多语言模型 (multilingual approach) 在某些翻译方向上有 +5 分数的提升。同时,提供标准的实验数据和测试集以供未来的研究使用。
Mar, 2020
本研究对Transformer模型在低资源语言翻译中的应用进行了探究,发现过度追求模型大小存在负面影响,需要注意调整超参数以提高性能。同时,本研究旨在挖掘更佳的模型性能,以推动“Masakhane”项目的发展。
Apr, 2020
本文介绍了对低资源语言NMT(LRL-NMT)的研究进展进行了详细调查,并定量分析了最受欢迎的解决方案,提供了一组指南来选择给定LRL数据设置的可能的NMT技术。它还呈现了LRL-NMT研究领域的完整视图,并提供了进一步增强LRL-NMT研究工作的建议清单。
Jun, 2021
通过对印尼四种资源匮乏的本土语言:爪哇语、巽他语、民丹·卡巴乌语和巴厘语的神经机器翻译系统进行全面分析,本研究揭示了适用于资源匮乏语言翻译的实用策略,展示了实现竞争性翻译品质的神经机器翻译系统,对类似背景的研究者提供了有价值的指导。
Nov, 2023
机器翻译在高资源语言取得了接近人类水平的成绩,但低资源语言的研究表明并非所有语言都能从多语言系统中受益。本文通过应用神经机器翻译技术,研究了德语和巴伐利亚语之间的自动翻译系统,并针对低资源语言的困难提出了创新的解决方案,如利用语言相似性和后向翻译等方法来改进翻译性能。
Apr, 2024