剑桥大学 WMT18 机器翻译系统
该论文介绍爱丁堡大学参加 WMT17 共享新闻翻译和生物医学翻译任务的情况,使用了采用 Nematus 注意力编码器 - 解码器训练的神经机器翻译系统,并对层归一化、深度结构和不同的集成技术进行了广泛的实验。
Aug, 2017
我们参加了 WMT 2016 分享的新闻翻译任务,并为四种语言建立了神经翻译系统,每种语言都在英语和其它语言的两个方向上进行训练。使用了基于注意力的编码器 - 解码器、BPE 子词段和自动回译等技术,我们的方法使得我们的结果比基准系统提高了 4.3-11.2 BLEU,人工评估显示我们的系统在 8 个翻译方向中有 7 个是最好的约束系统。
Jun, 2016
本文介绍了悉尼大学参加 WMT 2019 共享新闻翻译任务的提交。通过将学术研究中的最新的有效策略(例如,BPE、回译、多特征数据选择、数据增强、贪婪模型集成、reranking、ConMBR 系统组合和后处理)与自注意力 Transformer 网络相结合,提出了一种新的增强方法 Cycle Translation 和数据混合策略大 / 小并行构建,全面利用合成语料库。大量实验证明,添加上述技术可以使 BLEU 分数不断提高,最佳结果比基准线(使用原始平行语料库训练的 Transformer 集成模型)的 BLEU 分数高出约 5.3 个 BLEU 分,达到最先进的表现。
Jun, 2019
微软研究亚洲在 WMT19 新闻翻译任务中使用 Transformer、反向翻译和知识蒸馏等技术并结合多智能体双向学习、掩码序列到序列预训练、神经架构优化及软性上下文数据增强等技术在 11 个语言方向中获得了 8 个方向的第一名。
Nov, 2019
本研究介绍了 WeChat AI 在 WMT 2021 共享新闻翻译任务中的参与,并使用 Transformer 等多种方法来生成大量的合成数据,从而实现英语到中文、英语到日语、日语到英语和英语到德语的翻译,通过使用高级微调方法和基于 Self-BLEU 的模型加强,得到了 36.9、46.9、27.8 和 31.3 的 BLEU 分数,其中英语到中文、英语到日语和日语到英语的 BLEU 分数是所有提交中最高的,而英语到德语的 BLEU 分数是所有有限制的提交中最高的。
Aug, 2021
本文提出了 Adam Mickiewicz 大学对于 WMT 2022 通用机器翻译任务的限制性跟踪的提交结果,使用基于 transformer 架构的加权集成模型进行双向乌克兰语 <-> 捷克语翻译,使用源因子利用输入的命名实体信息,在训练数据之外使用噪声后向传递技术进行数据增强。使用 noisy back-translation 技术增加训练语料库。模型集成是由 4 个模型加权结合而成,并针对多句翻译使用了文档级模型进行训练,最后使用现有的质量估计模型和最小贝叶斯风险解码将 n-best 列表进行重排序,使得最佳假设能够根据 COMET 评估度量标准被选择。根据自动评估结果,在两个翻译方向上我们的系统排名第一。
Sep, 2022
介绍了 NiuTrans 神经机器翻译系统及其在多个语言(包括中文、日语、俄语、冰岛语)的 WMT2021 新闻翻译任务中的应用,利用多种方法包括 Transformer、回译、知识蒸馏和微调等提高翻译的性能。
Sep, 2021
本文介绍了我们在 WMT2020 机器翻译共享任务中的参与情况和采用的多项神经机器翻译技术,在英汉、波兰英语和德国上索布里亚语等四个方向中,我们获得了第一名的好成绩。
Oct, 2020
本文介绍了 MeMAD 项目进入 WMT 多模式机器翻译共享任务的情况,其中我们提出将 Transformer 神经机器翻译架构适应于多模式环境,并描述了我们在此选择之前对纯文本翻译系统的初步实验。我们拥有英语 - 德语和英语 - 法语两种语言的最高分数系统,在 flickr18 的自动指标中都得到了很好的表现。我们的实验表明,图像特征在我们的系统中作用不大,最大的收益来自于基于纯文本 NMT 系统的质量。我们发现适当地使用其他数据是有效的。
Aug, 2018
本文介绍了 NICT 参与 WMT18 新闻翻译任务的结果,通过采用统计机器翻译和神经机器翻译系统以及使用大量反向翻译单语数据,结合使用 transformer architecture,对于爱沙尼亚语对英语、芬兰语对英语等语言方向实现了 BLEU 评分的领先。
Sep, 2018