EvolveMT: 基于使用的集成翻译引擎自我优化
本文旨在介绍多语言神经网络机器翻译(MNMT)的概述,重点关注其经验转移的传输学习方法,对相关研究领域、建模原理和挑战进行了细致分类,讨论了不同技术的优劣,并探讨了未来的研究方向。
Jan, 2020
META-MT 提供了一种新的基于元学习的方法来适应神经机器翻译系统 (NMT),可以使 NMT 模型很容易地适应多个领域的目标,同时需要极少量的领域数据。通过在模拟的离线元训练领域适应任务的基础上学习如何适应新的未见过的领域,我们将 NMT 系统的适应性视为元学习问题。我们在十个领域上评估了提出的元学习策略并展示了在很少的领域样例可用时,META-MT 可以显著优于经典的领域适应并且可以在只见到 4,000 个已翻译的单词 (300 对平行句子) 后比经典微调的 BLEU 指标高出多达 2.5 个点。
Apr, 2020
介绍了 COMET,这是一个使用神经网络的多语言机器翻译评估模型,它利用了跨语言预训练语言建模的最新进展,通过同时使用源输入和目标语言的参考翻译来更准确地预测机器翻译的质量,并在 WMT 2019 指标共享任务中获得了新的最优表现,并展示了对高性能系统的鲁棒性。
Sep, 2020
本研究探讨了针对预训练第三方 NMT 模型的单语和平行数据方法在领域适应中的效果,在低资源条件下提出了集成方法来缓解翻译质量的降低,并给出了在三个领域和四个语言对中的建议。
Jun, 2022
本文旨在讨论如何通过两阶段训练策略实现多语言神经机器翻译系统,以解决低效率的问题,并在WMT'21多语言翻译任务中进行实验验证,证明我们的系统在大多数方向上优于基线模型,并且不需要架构修改或额外数据收集。
Jun, 2022
本文提出了Adam Mickiewicz大学对于WMT 2022通用机器翻译任务的限制性跟踪的提交结果,使用基于transformer架构的加权集成模型进行双向乌克兰语<->捷克语翻译,使用源因子利用输入的命名实体信息,在训练数据之外使用噪声后向传递技术进行数据增强。使用noisy back-translation技术增加训练语料库。模型集成是由4个模型加权结合而成,并针对多句翻译使用了文档级模型进行训练,最后使用现有的质量估计模型和最小贝叶斯风险解码将n-best列表进行重排序,使得最佳假设能够根据COMET评估度量标准被选择。根据自动评估结果,在两个翻译方向上我们的系统排名第一。
Sep, 2022
本研究提出了一种利用元学习和适配器,将域和语言知识结合起来以适应新的领域和语言对的多语言神经机器翻译模型,在跨语言和领域上取得了更好的性能表现。
Oct, 2022
adaptNMT是一个开源应用程序,为机器翻译领域的技术和非技术用户简化了RNN和Transformer神经翻译模型的开发和部署过程。该应用程序建立在广泛采用的OpenNMT生态系统之上,特别适用于新入行人员,因为它极大地简化了开发环境的设置以及训练、验证和测试数据集的创建。它还提供了图形化的模型训练进展展示,使用SentencePiece来创建子词分割模型,通过直观的用户界面实现了超参数定制,以及一键模型开发的方法。开发的模型可以使用多种指标进行评估,并在应用程序内部作为翻译服务进行部署。为支持自然语言处理领域的生态友好研究,该应用程序还提供了绿色报告,标志模型开发过程中所产生的功耗和二氧化碳排放量。该应用程序免费提供。
Mar, 2024