潜在对齐是否能提高自回归机器翻译?
本文提出了两种强有力的方法,CTC 和 Imputer,用于非自回归机器翻译,模拟了动态规划中的潜在对齐。我们重新审视了 CTC 和 Imputer 模型,并证明了一个简单的 CTC 模型可以实现单步非自回归机器翻译的最新成果,与之前的工作相反。另外,我们还将 Imputer 模型适应于非自回归机器翻译,并证明只需 4 个生成步骤,Imputer 即可匹配自回归 Transformer 基准的性能。
Apr, 2020
本文提出了一种利用非单调潜在对齐的方法,扩展非自回归翻译模型的非单调对齐空间,进一步考虑与目标句子重叠的所有对齐,并训练潜在对齐模型以最大化非单调匹配的 F1 分数,从而提高 CTC-based 模型的翻译性能,最佳模型在 WMT14 En-De 上实现了 30.06 BLEU 的性能表现。
Oct, 2022
本研究介绍了一种新的局部自回归翻译机制,将其应用于非自回归翻译模型中,以捕捉目标输出的局部依赖关系。同时,设计出一种高效的合并算法来对齐和合并输出序列。我们在 5 个翻译任务上进行了实证结果,表明相比 CMLM,我们的方法在更少的译码迭代次数下取得了可比或更好的性能,加速了 2.5 倍。进一步的分析表明,我们的方法减少了重复翻译,并且在较长的句子上表现更好。
Nov, 2020
本文对非自回归机器翻译模型进行了改进,通过使用额外的特征来提高连接时序分类(CTC)下的模型表达流畅性,并将其与波束搜索解码相结合,仍能保持高速解码能力,具有与自回归模型相媲美的 BLEU 分数。
Apr, 2020
LaNMT 是一种基于最近的改进方法的潜变量非自回归模型,具有连续潜变量和确定性推断过程,在推断期间,翻译的长度自动适应,在 ASPEC Ja-En 数据集上的解码速度比自回归算法快 8.6 倍,在 WMT'14 En-De 数据集上,解码速度比自回归基线快 12.5 倍,且独立的并行解码和教师模型再评分可以将性能差距进一步降至 1.0 BLEU point。
Aug, 2019
本文提出了一种新的针对非自回归机器翻译模型的训练方法 aligned cross entropy (AXE),该方法通过使用可微动态规划来实现最佳单调对齐,明显改善了条件掩码语言模型在主要 WMT 基准测试中的表现并创下了非自回归模型的新记录。
Apr, 2020
本文旨在改进非自回归方法在机器翻译方面的表现,探讨了多种技术提升其翻译质量和效率,并将其在四个翻译任务上进行了评估,考虑到 tokenized BLEU 的使用不一致,我们贡献了标准化的 BLEU、chrF++ 及 TER 得分,并将代码开源集成于 fairseq 中以便重现研究结果。
May, 2022
这篇论文探讨了 Connectionist Temporal Classification 在翻译任务中的应用,并提出了 CTC/attention 的联合模型,改进了传统 attention 模型的训练表现和效果。
Oct, 2022
通过使用 CTC loss 进行微调 PMLM 模型、采用 MASK 插入方案进行上采样、使用嵌入蒸馏方法进一步提高性能,使得非自回归模型获得了更好的翻译质量和加速,并在多个数据集上优于自回归模型
Jun, 2023
本研究旨在提高非自回归模型的神经机器翻译的效率和性能,通过将语言的句法和语义结构以及目标句子中的中间潜在对齐纳入一个非自回归 Transformer 模型。实验证明,该模型在速度上显著提高,与现有的多个最先进的非自回归模型相比,在保持翻译质量的同时表现突出。
Jan, 2021