赫尔辛基大学参加 WMT19 新闻翻译任务
本文介绍了微软参加 WMT2018 新闻翻译共享任务的提交,对于英语到德语的一种语言方向中,基于最佳实践,采用了最先进的模型和新数据过滤和句子加权方法来训练在 Paracrawl 上实验结果表明,根据自动指标 (BLEU),我们在此子任务中得分最高,比接下来最强大的系统高近 2 BLEU 分数,根据人工评估,我们在受限系统中排名第一,我们认为这主要是由于我们的数据过滤 / 加权组合的实施。
Sep, 2018
论文介绍了 Facebook FAIR 参与 WMT19 共享新闻翻译任务的成果,使用大型 BPE-based transformer 模型以及 back-translation 技术,通过加入不同的双语数据过滤方案和领域特定数据的 fine-tune 以及 noisy channel reranking 等方式进行了实验,所有四个方向的提交均在人类评估活动中排名第一,在 En->De 方向上明显优于其他系统和人类翻译。
Jul, 2019
该论文描述了用于 WMT 2018 新闻翻译任务的系统,它使用了基于字符的神经机器翻译模型,进行从芬兰语到英语的新闻文本翻译,并获得了 12.9 的 BLEU 分数。
Aug, 2019
爱丁堡大学参加 WMT19 新闻翻译组比赛,研究了多种语言翻译方向,并通过回译、半监督机器翻译、Hindi 为中间语言进行翻译轴标定等方式,探究了各个方向翻译的最佳解决方案,包括汉字的分词等。
Jul, 2019
本篇研究介绍了 Facebook AI 对 WMT20 共享新闻翻译任务的参赛,主要关注于资源有限的环境中,用多种策略和技术如自监督模型预训练、多语言模型、数据增强、标签数据微调等,以对目标新闻领域适应来应对低资源问题。在测试集上,我们的最佳提交系统分别取得 21.5 和 13.7 的 BLEU 得分,适用于 Ta→En 和 En→Ta,以及 27.9 和 13.0 的分数适用于 Iu→En 和 En→Iu。
Nov, 2020
该论文介绍爱丁堡大学参加 WMT17 共享新闻翻译和生物医学翻译任务的情况,使用了采用 Nematus 注意力编码器 - 解码器训练的神经机器翻译系统,并对层归一化、深度结构和不同的集成技术进行了广泛的实验。
Aug, 2017
介绍了赫尔辛基神经机器翻译系统 (HNMT) 及其在新闻翻译任务中的应用,其中在英语 - 芬兰语方向上在 WMT2017 评测中获得了人工评估和自动评估的第一名,与一个强大的传统机器翻译基线相比,HNMT 具有更大的优势。同时讨论了在英语 - 拉脱维亚语,英语 - 中文和中文 - 英语方向的翻译提交。
Aug, 2017
本文介绍了 NICT 参与 WMT18 新闻翻译任务的结果,通过采用统计机器翻译和神经机器翻译系统以及使用大量反向翻译单语数据,结合使用 transformer architecture,对于爱沙尼亚语对英语、芬兰语对英语等语言方向实现了 BLEU 评分的领先。
Sep, 2018
Unbabel 团队在 WMT 2019 共享任务中,利用 OpenKiwi 框架及 BERT 和 XLM 预训练模型进行传输学习,提出了用于词和句级别预测的新集成技术,并将单词标签转换为文档级别预测,取得了所有语言对和轨迹上显著的最佳结果。
Jul, 2019
本文介绍了悉尼大学参加 WMT 2019 共享新闻翻译任务的提交。通过将学术研究中的最新的有效策略(例如,BPE、回译、多特征数据选择、数据增强、贪婪模型集成、reranking、ConMBR 系统组合和后处理)与自注意力 Transformer 网络相结合,提出了一种新的增强方法 Cycle Translation 和数据混合策略大 / 小并行构建,全面利用合成语料库。大量实验证明,添加上述技术可以使 BLEU 分数不断提高,最佳结果比基准线(使用原始平行语料库训练的 Transformer 集成模型)的 BLEU 分数高出约 5.3 个 BLEU 分,达到最先进的表现。
Jun, 2019