全非自回归神经机器翻译:技巧窍门
本文提出了两种增强解码器输入以提高 NAT 模型的翻译准确性的方法,并表明这些方法在 WMT14 英德任务和 WMT16 英罗马任务中比 NAT 基线高出 $5.11$ BLEU 分数和 $4.72$ BLEU 分数。
Dec, 2018
本文提出了一种名为 RenewNAT 的灵活框架,实现了高效和有效的翻译过程,结合了自然语言机器翻译的全非自回归模型和迭代模型。通过在单个通道中生成潜在的翻译结果,RenewNAT 在不引入额外模型参数和解码延迟的情况下,显着提高强大的全自然模型(例如 GLAT 和 DSLP)的性能。
Mar, 2023
本文提出了基于仿真学习的非自回归机器翻译框架,该框架仍然具有快速翻译速度但与其自回归对应方法相比具有可比较的翻译性能。通过对 IWSLT16、WMT14 和 WMT16 数据集进行实验,发现我们提出的模型在保持翻译质量可比的同时,比自回归模型有更快的翻译速度。在推断时并行采样句子长度,WMT16 Ro→En 的 BLEU 值达到 31.85,而 IWSLT16 En→De 的 BLEU 值为 30.68。
Jun, 2019
本论文提出了两种增强 Non-Autoregressive Transformer (NAT) 翻译能力的方法:一种基于一种新的强化学习算法的序列级训练方法,叫做 Reinforce-NAT;还有一种名为 FS-decoder 的新型 Transformer 解码器,可以将目标顺序信息融合到解码器的顶层中。实验结果表明,Reinforce-NAT 在三个翻译任务上的表现优于基线模型 NAT,FS-decoder 的翻译性能与自回归 Transformer 相当,但速度更快。
Jun, 2019
本文提出了一种能够从两个角度增强神经机器翻译(Non-autoregressive translation)解码器内部的目标依存性的新方法,并在四个 WMT 翻译任务上进行试验。结果表明,该方法相较于其他神经机器翻译方法,能够将 BLEU 得分提高 1.88 分而且性能并不受影响。
Mar, 2022
本论文提出了一种针对非自回归机器翻译的多粒度优化方法,利用反向传播集成不同粒度的翻译段的模型行为反馈,实现在 WMT 基准测试集上超越对比模型,且在 WMT'16 En-Ro 上实现了最佳性能,在 WMT'14 En-De 上实现了高竞争的结果。
Oct, 2022
本文提出通过在 NAT 模型的训练过程中引入两个辅助正则化项来提高解码器的隐藏表示质量,以解决重复和不完整翻译的问题,并在几个基准数据集上进行了广泛实验,表明正则化策略是有效的,可以显著提高 NAT 模型的准确性和效率。
Feb, 2019
本文提出了一种使用序列级训练目标来训练非自回归神经机器翻译模型的方法,通过几种为非自回归定制的新型强化算法,基于 BLEU 等序列级评价指标优化 NAT 模型的训练;介绍了一种基于 Bag-of-Ngrams(BoN)差异的 NAT 模型的新型训练目标;并通过三阶段训练策略将这两种方法结合起来应用,验证了该方法在多项任务中的鲜明表现。
Jun, 2021
本文提出了一种基于 DA-Transformer 模型和从模型分布中采点的对比约束的非自回归 Transformer 模型,通过这种方式减轻模态学习的难度,取得了在机器翻译,文本摘要和改写等多个基准数据集中显著的最新非自回归 Transformer 模型的性能。
May, 2023
本文分析了非自回归 Transformer 的学习挑战,提出统一视角来理解存在的成功。研究表明,我们的视角可以解释 NAT 学习中的现象并指导新的训练方法的设计。
Jun, 2022