微软亚洲研究院的 WMT19 系统
本文介绍了微软参加 WMT2018 新闻翻译共享任务的提交,对于英语到德语的一种语言方向中,基于最佳实践,采用了最先进的模型和新数据过滤和句子加权方法来训练在 Paracrawl 上实验结果表明,根据自动指标 (BLEU),我们在此子任务中得分最高,比接下来最强大的系统高近 2 BLEU 分数,根据人工评估,我们在受限系统中排名第一,我们认为这主要是由于我们的数据过滤 / 加权组合的实施。
Sep, 2018
本文介绍 Microsoft 在 WMT21 大规模多语言机器翻译竞赛中使用的机器翻译系统,该系统使用基于 DeltaLM 的泛用预训练多语言编码器 - 解码器模型进行初始化,应用迭代反向翻译方法和渐进式学习来优化性能,在三个评估轨迹中都获得了第一名。
Nov, 2021
该论文探究利用多种不同的神经模型进行翻译的组合,其中包括递归、卷积和自注意力模型,最终结合短语基 SMT 系统的 MBR 方案,相较于强 Transformer 模型集合,取得了小但一致的收益。
Aug, 2018
介绍了 NiuTrans 神经机器翻译系统及其在多个语言(包括中文、日语、俄语、冰岛语)的 WMT2021 新闻翻译任务中的应用,利用多种方法包括 Transformer、回译、知识蒸馏和微调等提高翻译的性能。
Sep, 2021
本文描述了三星菲律宾研究所在 WMT 2023 普通翻译任务中提交的受限机器翻译系统,涵盖 en$ ightarrow$he 和 he$ ightarrow$en 两个方向。这些系统由基于 Transformer 的序列 - 序列模型组成,在训练过程中采用了一系列最佳实践,如全面的数据预处理流程、合成的反向译文数据以及在线解码时的噪声通道重排序。我们的模型在 FLORES-200 和 NTREX-128 两个公共基准测试数据集上,尽管参数数量明显较少,但性能与强基线无限制系统(如 mBART50 M2M 和 NLLB 200 MoE)相当,有时甚至更好。
Oct, 2023
该论文介绍爱丁堡大学参加 WMT17 共享新闻翻译和生物医学翻译任务的情况,使用了采用 Nematus 注意力编码器 - 解码器训练的神经机器翻译系统,并对层归一化、深度结构和不同的集成技术进行了广泛的实验。
Aug, 2017
我们参加了 WMT 2016 分享的新闻翻译任务,并为四种语言建立了神经翻译系统,每种语言都在英语和其它语言的两个方向上进行训练。使用了基于注意力的编码器 - 解码器、BPE 子词段和自动回译等技术,我们的方法使得我们的结果比基准系统提高了 4.3-11.2 BLEU,人工评估显示我们的系统在 8 个翻译方向中有 7 个是最好的约束系统。
Jun, 2016
本研究介绍了 WeChat AI 在 WMT 2021 共享新闻翻译任务中的参与,并使用 Transformer 等多种方法来生成大量的合成数据,从而实现英语到中文、英语到日语、日语到英语和英语到德语的翻译,通过使用高级微调方法和基于 Self-BLEU 的模型加强,得到了 36.9、46.9、27.8 和 31.3 的 BLEU 分数,其中英语到中文、英语到日语和日语到英语的 BLEU 分数是所有提交中最高的,而英语到德语的 BLEU 分数是所有有限制的提交中最高的。
Aug, 2021
介绍我们在 WMT20 共享新闻翻译任务中使用的 VolcTrans 系统,该系统基于 Transformer,包括文本预处理、数据选择、合成数据生成、高级模型集成和多语言预训练。
Oct, 2020
本文介绍了 NICT 参与 WMT18 新闻翻译任务的结果,通过采用统计机器翻译和神经机器翻译系统以及使用大量反向翻译单语数据,结合使用 transformer architecture,对于爱沙尼亚语对英语、芬兰语对英语等语言方向实现了 BLEU 评分的领先。
Sep, 2018