本文旨在改进非自回归方法在机器翻译方面的表现,探讨了多种技术提升其翻译质量和效率,并将其在四个翻译任务上进行了评估,考虑到 tokenized BLEU 的使用不一致,我们贡献了标准化的 BLEU、chrF++ 及 TER 得分,并将代码开源集成于 fairseq 中以便重现研究结果。
May, 2022
本文提出了一种基于 DA-Transformer 模型和从模型分布中采点的对比约束的非自回归 Transformer 模型,通过这种方式减轻模态学习的难度,取得了在机器翻译,文本摘要和改写等多个基准数据集中显著的最新非自回归 Transformer 模型的性能。
May, 2023
本文分析了非自回归 Transformer 的学习挑战,提出统一视角来理解存在的成功。研究表明,我们的视角可以解释 NAT 学习中的现象并指导新的训练方法的设计。
Jun, 2022
本研究提出 PNAT,将位置建模作为非自回归文本生成过程的一个潜变量。实验结果表明,PNAT 在机器翻译和转述生成任务中取得了最佳结果,优于几个强基线模型。
Nov, 2019
本研究介绍了一种新的局部自回归翻译机制,将其应用于非自回归翻译模型中,以捕捉目标输出的局部依赖关系。同时,设计出一种高效的合并算法来对齐和合并输出序列。我们在 5 个翻译任务上进行了实证结果,表明相比 CMLM,我们的方法在更少的译码迭代次数下取得了可比或更好的性能,加速了 2.5 倍。进一步的分析表明,我们的方法减少了重复翻译,并且在较长的句子上表现更好。
Nov, 2020
Non-autoregressive Transformer (NAT) 通过引入 Probabilistic Context-Free Grammar (PCFG) 提升了神经机器翻译的表达能力,并缩小了 NAT 与 AT 模型之间的翻译质量差距。
Nov, 2023
本文提出了两种增强解码器输入以提高 NAT 模型的翻译准确性的方法,并表明这些方法在 WMT14 英德任务和 WMT16 英罗马任务中比 NAT 基线高出 $5.11$ BLEU 分数和 $4.72$ BLEU 分数。
Dec, 2018
提出基于 CTC 的非自回归结构,可用于神经机器翻译,相比其他的非自回归结构,本文所提出的模型可以进行端到端的训练,并在 WMT 英罗马尼亚和英德数据集上实现了可比的翻译质量及较大的速度提升。
Nov, 2018
本文提出了一种能够从两个角度增强神经机器翻译(Non-autoregressive translation)解码器内部的目标依存性的新方法,并在四个 WMT 翻译任务上进行试验。结果表明,该方法相较于其他神经机器翻译方法,能够将 BLEU 得分提高 1.88 分而且性能并不受影响。
Mar, 2022
通过使用 CTC loss 进行微调 PMLM 模型、采用 MASK 插入方案进行上采样、使用嵌入蒸馏方法进一步提高性能,使得非自回归模型获得了更好的翻译质量和加速,并在多个数据集上优于自回归模型
Jun, 2023