利用通用的表达和交叉映射提高零阶多语种翻译
这篇论文通过研究多语言神经机器翻译中的表示转移,揭示了导致零射翻译不足的表示问题。研究中引入了身份对(一个句子翻译为自身),以解决多语言研究中基准测量缺失的问题,因为身份对代表了所有语言转移中的最佳表示状态。通过分析,我们证明编码器将源语言转移到目标语言的表示子空间,而不是语言无关的状态。因此,零射翻译不足是因为表示与其他语言相混合并且未能有效地转移到目标语言。基于我们的发现,我们提出了两种方法:1)在编码器中使用低秩语言特定嵌入,2)在解码器中进行语言特定的对比学习表示。在 Europarl-15、TED-19 和 OPUS-100 数据集上的实验结果表明,我们的方法显著提高了零射翻译的性能,改善了语言转移能力,从而为我们的结论提供了实际证据。
Jun, 2024
本研究提出了一种能够有效缓解多语言神经机器翻译中面临的零翻译问题的方法。我们的改进主要在于移除编码器层中的残差连接,使模型表示更多地与特定语言对应。通过此种改进,我们在零翻译的任务上获得高达 18.5 个 BLEU 点的提升,而且在其他有监督的翻译中保持了高质量的表现。通过对隐藏层输出的详细检查,我们也表明了我们的方法确实能够获得更多的语言无关性。
Dec, 2020
通过设计归一化方法来改进 Transformer 模型以实现对未在训练过程中出现的语言对进行零 - shot 机器翻译,此方法可使系统在 IWSLT 2017 多语言数据集中平均提高 2.23 BLEU 分数。
Jun, 2019
通过跨语言预训练的双语预训练方法,建立了通用编码器,将传递者和接受者的语言空间对齐,使得零翻译成为可能。实验结果表明,该方法显著优于强的基准线和各种多语言 NMT 方法。
Dec, 2019
本文研究了多语言神经机器翻译模型的零样本翻译问题,提出了基于辅助损失的方法,并在 WMT14 英语 - 法语 / 德语上实现了与基于中介语的模型相媲美的零样本翻译效果,同时在 IWSLT 2017 共享任务中验证了该方法的易于扩展性。
Mar, 2019
本文介绍了一种跨语言一致性正则化方法 CrossConST,用于在多语言神经机器翻译模型中实现零 - shot 翻译,以实现不同语言之间的普适表示,并提高翻译性能。实验结果证明 CrossConST 能够提高模型的翻译性能并降低句子表示间的差距,为未来的多语言 NMT 研究奠定了基础。
May, 2023
通过独立训练的编码器和解码器,通过共享的固定大小表示组合,可以在语音到文本翻译中取得竞争力的性能,本研究表明这种方法可以通过多语种训练进一步改进,我们观察到在零 - shot 跨模态语音翻译中显著提高,甚至在几种语言上胜过基于 XLSR 的有监督方法。
Oct, 2023
通过将多语言翻译问题重新构造为概率推理,定义了零 - shot 一致性的概念;引入了一种基于一致性约束的训练方法,鼓励模型在辅助语言中生成等效的平行句子翻译,最终我们测试了多种公共的零 - shot 翻译基准数据集,并证明基于一致性约束训练的 NMT 模型通常会在无监督翻译任务上取得 2-3 BLEU 的提高,而在监督翻译任务上的性能不会降低。
Apr, 2019
本文探讨了如何改善大规模多语言神经机器翻译模型的性能,并提出了加强模型能力、引入语言特定组件和加深神经机器翻译结构以支持具有不同类型学特征的语言对,同时通过随机在线回译来解决离线训练中未出现的语言对翻译问题。实验结果表明,本方法在一对多和多对多设置中缩小了双语模型的性能差距,并将零 - shot 表现提高约 10 BLEU,接近传统的基于中间语言的方法。
Apr, 2020
本论文的研究目标是证明通用机器翻译算法的理论限制并提出更好的算法设计。研究发现在缺乏数据结构假设的情况下,任何算法都将在至少一个翻译任务上产生较大的翻译误差。此外,文档语料库采用编码器 - 解码器生成过程可用来实现 “泛化” 的自然概念,并且图像语言对之间的连接路径越长,需要的语言对数量也就越多。
Aug, 2020