本文提出了基于仿真学习的非自回归机器翻译框架,该框架仍然具有快速翻译速度但与其自回归对应方法相比具有可比较的翻译性能。通过对 IWSLT16、WMT14 和 WMT16 数据集进行实验,发现我们提出的模型在保持翻译质量可比的同时,比自回归模型有更快的翻译速度。在推断时并行采样句子长度,WMT16 Ro→En 的 BLEU 值达到 31.85,而 IWSLT16 En→De 的 BLEU 值为 30.68。
Jun, 2019
本文旨在改进非自回归方法在机器翻译方面的表现,探讨了多种技术提升其翻译质量和效率,并将其在四个翻译任务上进行了评估,考虑到 tokenized BLEU 的使用不一致,我们贡献了标准化的 BLEU、chrF++ 及 TER 得分,并将代码开源集成于 fairseq 中以便重现研究结果。
May, 2022
最近的研究发现非自回归翻译方法与自回归方法在性能上存在一定差距,且传统的评估指标不太相关。本文通过系统评估四种非自回归方法,并结合人工评估,发现尽管性能差距在缩小,但当前领先的非自回归方法仍然不如自回归方法,在更可靠的评估指标下表现不佳。此外,我们还发现明确建模依赖关系对于生成自然语言并推广到其他序列是至关重要的。
May, 2024
本研究提出了一种全非自回归神经机器翻译(NAT)的方案,采用依赖关系减少等方法,缩短推理延迟同时提升翻译质量,在三个翻译基准测试中实现了新的全自然机器翻译模型的最高水平,并在推理时间上取得了大约 16.5 倍的速度提升。
Dec, 2020
本文提出通过在 NAT 模型的训练过程中引入两个辅助正则化项来提高解码器的隐藏表示质量,以解决重复和不完整翻译的问题,并在几个基准数据集上进行了广泛实验,表明正则化策略是有效的,可以显著提高 NAT 模型的准确性和效率。
Feb, 2019
本论文提出了一种针对非自回归机器翻译的多粒度优化方法,利用反向传播集成不同粒度的翻译段的模型行为反馈,实现在 WMT 基准测试集上超越对比模型,且在 WMT'16 En-Ro 上实现了最佳性能,在 WMT'14 En-De 上实现了高竞争的结果。
Oct, 2022
本文提出了两种增强解码器输入以提高 NAT 模型的翻译准确性的方法,并表明这些方法在 WMT14 英德任务和 WMT16 英罗马任务中比 NAT 基线高出 $5.11$ BLEU 分数和 $4.72$ BLEU 分数。
Dec, 2018
本文描述了皇家同花顺神经机器翻译系统提交至 WMT 2022 翻译效率任务,采用了两阶段的混合回归翻译系统,并且通过整合其他建模技术和大量工程努力,达到了与同样容量的 AT 对手相当的翻译性能,并且带来 80%的推理速度提升。
Dec, 2022
该论文提出了一种新的方法,通过利用隐藏状态和单词对齐的提示,帮助训练非自回归翻译模型,实现了比以前的非自回归翻译模型更显着的改进,甚至可以与强大的基于 LSTM 的自回归翻译模型基线相媲美但在推理速度上快一个数量级。
Sep, 2019
本文提出一种新的神经机器翻译模型,通过避免自回归的特性,以并行方式生成输出,进而做到了比先前方法更低的延迟时间。通过知识蒸馏,潜在变量,以及多样本策略梯度微调等技术手段,几乎没有损失性能,达到了先进的翻译效果。
Nov, 2017