本论文提出了最小风险训练方法用于端到端神经机器翻译,在优化模型参数方面比传统的最大似然估计方法更加灵活,可适用于任意不可微分的评价指标,在多种语言对上均表现出显著改进,其方法与网络结构无关,可应用于更多神经网络和潜在的自然语言处理任务。
Dec, 2015
本文介绍了 NICT 参与 WMT18 新闻翻译任务的结果,通过采用统计机器翻译和神经机器翻译系统以及使用大量反向翻译单语数据,结合使用 transformer architecture,对于爱沙尼亚语对英语、芬兰语对英语等语言方向实现了 BLEU 评分的领先。
Sep, 2018
研究表明,使用基于语法的统计机器翻译加上使用神经注意力机器翻译模型的重新排序组件进行机器翻译的效果较好,尤其对于语法正确性方面有较大提升。
Oct, 2015
该论文介绍爱丁堡大学参加 WMT17 共享新闻翻译和生物医学翻译任务的情况,使用了采用 Nematus 注意力编码器 - 解码器训练的神经机器翻译系统,并对层归一化、深度结构和不同的集成技术进行了广泛的实验。
Aug, 2017
本文提出使用离散的翻译词典,通过使用 NMT 模型的 attention 向量选择需要聚焦的源单词的词典概率,从而缓解 NMT 在翻译低频词汇时出现的错误,并进行了两种方法的实验,结果显示翻译质量(BLEU)得分有明显提高。
Jun, 2016
本文介绍了我们在 WMT2020 机器翻译共享任务中的参与情况和采用的多项神经机器翻译技术,在英汉、波兰英语和德国上索布里亚语等四个方向中,我们获得了第一名的好成绩。
Oct, 2020
我们参加了 WMT 2016 分享的新闻翻译任务,并为四种语言建立了神经翻译系统,每种语言都在英语和其它语言的两个方向上进行训练。使用了基于注意力的编码器 - 解码器、BPE 子词段和自动回译等技术,我们的方法使得我们的结果比基准系统提高了 4.3-11.2 BLEU,人工评估显示我们的系统在 8 个翻译方向中有 7 个是最好的约束系统。
本文提出了 Adam Mickiewicz 大学对于 WMT 2022 通用机器翻译任务的限制性跟踪的提交结果,使用基于 transformer 架构的加权集成模型进行双向乌克兰语 <-> 捷克语翻译,使用源因子利用输入的命名实体信息,在训练数据之外使用噪声后向传递技术进行数据增强。使用 noisy back-translation 技术增加训练语料库。模型集成是由 4 个模型加权结合而成,并针对多句翻译使用了文档级模型进行训练,最后使用现有的质量估计模型和最小贝叶斯风险解码将 n-best 列表进行重排序,使得最佳假设能够根据 COMET 评估度量标准被选择。根据自动评估结果,在两个翻译方向上我们的系统排名第一。
Sep, 2022
该研究提出了一种将神经机器翻译(NMT)与传统的统计机器翻译(SMT)相结合的新方案,利用贝叶斯风险进行组合,并成功地在英德和日英翻译方面得到了显著的提升。
Dec, 2016
本文介绍了腾讯的多语言机器翻译系统,该系统使用数据扩增、分布式稳健优化和语系分组等技术来应对数据不平衡和多语言难题,其中在 WMT22 的有限数据情况下,取得了第一名的成绩。
Oct, 2022