基于课程学习的非自回归神经机器翻译的微调
本研究提出了一种训练曲线,通过任务级别的课程学习(TCL-NAT)将模型训练从更简单的自回归翻译(AT)任务平滑转移到困难的非自回归翻译(NAT)任务,其中引入了中间任务 - 半自回归翻译(SAT),可以通过调整参数 k,平衡翻译速度和准确性,达到在四个数据集上显著提高翻译准确性的效果。
Jul, 2020
本文提出了一种基于 DA-Transformer 模型和从模型分布中采点的对比约束的非自回归 Transformer 模型,通过这种方式减轻模态学习的难度,取得了在机器翻译,文本摘要和改写等多个基准数据集中显著的最新非自回归 Transformer 模型的性能。
May, 2023
本研究提出了一种全非自回归神经机器翻译(NAT)的方案,采用依赖关系减少等方法,缩短推理延迟同时提升翻译质量,在三个翻译基准测试中实现了新的全自然机器翻译模型的最高水平,并在推理时间上取得了大约 16.5 倍的速度提升。
Dec, 2020
本文证明 non-autoregressive translation 偏爱学习细粒度语言知识,并提出了逐步加深语言粒度的 multi-granularity training 方法,实验结果表明该方法能够提高短语翻译准确率、模型排序能力,并且更加确定的细粒度语言知识能进一步提升翻译质量。
Jun, 2021
本文提出了两种增强解码器输入以提高 NAT 模型的翻译准确性的方法,并表明这些方法在 WMT14 英德任务和 WMT16 英罗马任务中比 NAT 基线高出 $5.11$ BLEU 分数和 $4.72$ BLEU 分数。
Dec, 2018
本文提出了基于仿真学习的非自回归机器翻译框架,该框架仍然具有快速翻译速度但与其自回归对应方法相比具有可比较的翻译性能。通过对 IWSLT16、WMT14 和 WMT16 数据集进行实验,发现我们提出的模型在保持翻译质量可比的同时,比自回归模型有更快的翻译速度。在推断时并行采样句子长度,WMT16 Ro→En 的 BLEU 值达到 31.85,而 IWSLT16 En→De 的 BLEU 值为 30.68。
Jun, 2019
本论文提出了两种增强 Non-Autoregressive Transformer (NAT) 翻译能力的方法:一种基于一种新的强化学习算法的序列级训练方法,叫做 Reinforce-NAT;还有一种名为 FS-decoder 的新型 Transformer 解码器,可以将目标顺序信息融合到解码器的顶层中。实验结果表明,Reinforce-NAT 在三个翻译任务上的表现优于基线模型 NAT,FS-decoder 的翻译性能与自回归 Transformer 相当,但速度更快。
Jun, 2019
最近的研究发现非自回归翻译方法与自回归方法在性能上存在一定差距,且传统的评估指标不太相关。本文通过系统评估四种非自回归方法,并结合人工评估,发现尽管性能差距在缩小,但当前领先的非自回归方法仍然不如自回归方法,在更可靠的评估指标下表现不佳。此外,我们还发现明确建模依赖关系对于生成自然语言并推广到其他序列是至关重要的。
May, 2024
本文提出了一种名为 RenewNAT 的灵活框架,实现了高效和有效的翻译过程,结合了自然语言机器翻译的全非自回归模型和迭代模型。通过在单个通道中生成潜在的翻译结果,RenewNAT 在不引入额外模型参数和解码延迟的情况下,显着提高强大的全自然模型(例如 GLAT 和 DSLP)的性能。
Mar, 2023