微软基于 WMT21 共享任务的多语言机器翻译系统
本文介绍了腾讯的多语言机器翻译系统,该系统使用数据扩增、分布式稳健优化和语系分组等技术来应对数据不平衡和多语言难题,其中在 WMT22 的有限数据情况下,取得了第一名的成绩。
Oct, 2022
微软研究亚洲在 WMT19 新闻翻译任务中使用 Transformer、反向翻译和知识蒸馏等技术并结合多智能体双向学习、掩码序列到序列预训练、神经架构优化及软性上下文数据增强等技术在 11 个语言方向中获得了 8 个方向的第一名。
Nov, 2019
本文介绍了微软参加 WMT2018 新闻翻译共享任务的提交,对于英语到德语的一种语言方向中,基于最佳实践,采用了最先进的模型和新数据过滤和句子加权方法来训练在 Paracrawl 上实验结果表明,根据自动指标 (BLEU),我们在此子任务中得分最高,比接下来最强大的系统高近 2 BLEU 分数,根据人工评估,我们在受限系统中排名第一,我们认为这主要是由于我们的数据过滤 / 加权组合的实施。
Sep, 2018
本报告介绍了我们的 VolcTrans 系统,它是一个基于 Transformer 的多语言模型,使用从多个来源收集的数据进行训练,包括来自数据轨道的公共训练集,由 Meta AI 提供的 NLLB 数据,自收集的平行语料库和来自反向翻译的伪双语文本。在官方测试集上,我们的系统实现了 17.3 BLEU,21.9 spBLEU,和 41.9 chrF2 ++,平均所有语言对的推理速度为每秒 11.5 句,使用单个 Nvidia Tesla V100 GPU。
Oct, 2022
该论文探究利用多种不同的神经模型进行翻译的组合,其中包括递归、卷积和自注意力模型,最终结合短语基 SMT 系统的 MBR 方案,相较于强 Transformer 模型集合,取得了小但一致的收益。
Aug, 2018
介绍我们在 WMT20 共享新闻翻译任务中使用的 VolcTrans 系统,该系统基于 Transformer,包括文本预处理、数据选择、合成数据生成、高级模型集成和多语言预训练。
Oct, 2020
本文介绍了微软译者参加 WMT19 新闻翻译的论文,重点关注基于深度转换模型的文档级神经机器翻译。研究团队通过数据过滤和噪声反向转换等方式构建大规模数据集,并探索了微调技术,更深层次的模型以及不同的集成策略,最终实现了对最大长度为 1000 个子词节选的文档级机器翻译。在人工评估中,研究人员发现文档级翻译系统的性能优于基于句子的翻译系统和人类参考翻译。
Jul, 2019
本文介绍了第七届机器翻译会议的机器翻译任务自动评估,其中评估了 185 种系统,包括高资源到低资源语言对和从密切相关到远离的语言。自动度量标准 chrF、BLEU 和 COMET 可以相互补充以减轻解释性和准确性方面的限制,并凸显了当前最先进的机器翻译系统的一些局限性。
Sep, 2022
介绍了 NiuTrans 神经机器翻译系统及其在多个语言(包括中文、日语、俄语、冰岛语)的 WMT2021 新闻翻译任务中的应用,利用多种方法包括 Transformer、回译、知识蒸馏和微调等提高翻译的性能。
Sep, 2021
本文介绍了我们在 WMT2020 机器翻译共享任务中的参与情况和采用的多项神经机器翻译技术,在英汉、波兰英语和德国上索布里亚语等四个方向中,我们获得了第一名的好成绩。
Oct, 2020