爱丁堡大学 WMT17 神经机器翻译系统
我们参加了 WMT 2016 分享的新闻翻译任务,并为四种语言建立了神经翻译系统,每种语言都在英语和其它语言的两个方向上进行训练。使用了基于注意力的编码器 - 解码器、BPE 子词段和自动回译等技术,我们的方法使得我们的结果比基准系统提高了 4.3-11.2 BLEU,人工评估显示我们的系统在 8 个翻译方向中有 7 个是最好的约束系统。
Jun, 2016
本文介绍了 NICT 参与 WMT18 新闻翻译任务的结果,通过采用统计机器翻译和神经机器翻译系统以及使用大量反向翻译单语数据,结合使用 transformer architecture,对于爱沙尼亚语对英语、芬兰语对英语等语言方向实现了 BLEU 评分的领先。
Sep, 2018
该论文探究利用多种不同的神经模型进行翻译的组合,其中包括递归、卷积和自注意力模型,最终结合短语基 SMT 系统的 MBR 方案,相较于强 Transformer 模型集合,取得了小但一致的收益。
Aug, 2018
本文介绍了 NVIDIA NeMo 神经机器翻译系统在 WMT21 新闻和生物医学共享翻译任务的受限数据跟踪中的运用,其中新闻任务的提交在 Transform 器基础的序列到序列模型上,采用了多项技术手段并且获得了比去年任务最佳提交更好的表现,生物医学任务的提交则采取了医学相关文本来源和生物医学数据的训练集,而两个系统都在测试集上超越了去年任务的最佳提交。
Nov, 2021
爱丁堡大学参加 WMT19 新闻翻译组比赛,研究了多种语言翻译方向,并通过回译、半监督机器翻译、Hindi 为中间语言进行翻译轴标定等方式,探究了各个方向翻译的最佳解决方案,包括汉字的分词等。
Jul, 2019
本文提出了 Adam Mickiewicz 大学对于 WMT 2022 通用机器翻译任务的限制性跟踪的提交结果,使用基于 transformer 架构的加权集成模型进行双向乌克兰语 <-> 捷克语翻译,使用源因子利用输入的命名实体信息,在训练数据之外使用噪声后向传递技术进行数据增强。使用 noisy back-translation 技术增加训练语料库。模型集成是由 4 个模型加权结合而成,并针对多句翻译使用了文档级模型进行训练,最后使用现有的质量估计模型和最小贝叶斯风险解码将 n-best 列表进行重排序,使得最佳假设能够根据 COMET 评估度量标准被选择。根据自动评估结果,在两个翻译方向上我们的系统排名第一。
Sep, 2022
本文介绍了悉尼大学参加 WMT 2019 共享新闻翻译任务的提交。通过将学术研究中的最新的有效策略(例如,BPE、回译、多特征数据选择、数据增强、贪婪模型集成、reranking、ConMBR 系统组合和后处理)与自注意力 Transformer 网络相结合,提出了一种新的增强方法 Cycle Translation 和数据混合策略大 / 小并行构建,全面利用合成语料库。大量实验证明,添加上述技术可以使 BLEU 分数不断提高,最佳结果比基准线(使用原始平行语料库训练的 Transformer 集成模型)的 BLEU 分数高出约 5.3 个 BLEU 分,达到最先进的表现。
Jun, 2019
本文介绍了我们在 WMT2020 机器翻译共享任务中的参与情况和采用的多项神经机器翻译技术,在英汉、波兰英语和德国上索布里亚语等四个方向中,我们获得了第一名的好成绩。
Oct, 2020
介绍了 NiuTrans 神经机器翻译系统及其在多个语言(包括中文、日语、俄语、冰岛语)的 WMT2021 新闻翻译任务中的应用,利用多种方法包括 Transformer、回译、知识蒸馏和微调等提高翻译的性能。
Sep, 2021
本文介绍在 WMT19 共享任务中,我们采用 Transformer 模型和 document-level 训练方式,用于英捷克翻译,以提高翻译文件的充分性和连贯性。
Jul, 2019