连续空间迭代优化非自回归神经机器翻译
LaNMT 是一种基于最近的改进方法的潜变量非自回归模型,具有连续潜变量和确定性推断过程,在推断期间,翻译的长度自动适应,在 ASPEC Ja-En 数据集上的解码速度比自回归算法快 8.6 倍,在 WMT'14 En-De 数据集上,解码速度比自回归基线快 12.5 倍,且独立的并行解码和教师模型再评分可以将性能差距进一步降至 1.0 BLEU point。
Aug, 2019
提出一种基于迭代改善的有条件非自回归神经序列模型,结合了潜变量模型和自编码器的原则,可以广泛应用于任何序列生成任务。该模型经过在机器翻译(En-De 和 En-Ro)以及图像字幕生成方面的广泛评估,观察到它显著加快解码速度,并保持与自回归形式相当的生成质量。
Feb, 2018
本文提出一种新的神经机器翻译模型,通过避免自回归的特性,以并行方式生成输出,进而做到了比先前方法更低的延迟时间。通过知识蒸馏,潜在变量,以及多样本策略梯度微调等技术手段,几乎没有损失性能,达到了先进的翻译效果。
Nov, 2017
本文提出了基于仿真学习的非自回归机器翻译框架,该框架仍然具有快速翻译速度但与其自回归对应方法相比具有可比较的翻译性能。通过对 IWSLT16、WMT14 和 WMT16 数据集进行实验,发现我们提出的模型在保持翻译质量可比的同时,比自回归模型有更快的翻译速度。在推断时并行采样句子长度,WMT16 Ro→En 的 BLEU 值达到 31.85,而 IWSLT16 En→De 的 BLEU 值为 30.68。
Jun, 2019
本文提出了一种叫做混合回归翻译的翻译模型,它结合了自回归翻译和非自回归翻译模式的优势,通过在自回归过程中预测部分结果,再通过非自回归方式填充其余结果的方式,开发出了一种基于这两种模式的翻译模型,并对其效率和准确性进行了评估和比较。
Oct, 2022
提出了一种基于卷积神经网络的翻译方案,它使用关注机制对原句和当前翻译输出进行离散替换预测,可以对先前的错误进行修正,并利用该方案对基于短语的翻译系统进行迭代优化,使其在 WMT15 德语 - 英语翻译中 BLEU 得分提高了 0.4。
Oct, 2016
本文旨在改进非自回归方法在机器翻译方面的表现,探讨了多种技术提升其翻译质量和效率,并将其在四个翻译任务上进行了评估,考虑到 tokenized BLEU 的使用不一致,我们贡献了标准化的 BLEU、chrF++ 及 TER 得分,并将代码开源集成于 fairseq 中以便重现研究结果。
May, 2022
本研究提出了 DSLP 模型,可以通过使用深度监督和层次预测训练非自回归 Transformer 以进行高效且高性能的机器翻译,实验结果表明,与基础模型相比,我们的方法始终改善了 BLEU 得分,尤其在推理效率方面提高了 14.8 倍。
Oct, 2021
通过使用 CTC loss 进行微调 PMLM 模型、采用 MASK 插入方案进行上采样、使用嵌入蒸馏方法进一步提高性能,使得非自回归模型获得了更好的翻译质量和加速,并在多个数据集上优于自回归模型
Jun, 2023
本研究提出了一种基于迭代重对齐的端到端 Transformer 模型,在语音识别中优化了 CTC(Connectionist Temporal Classification)对齐,允许长度可变的插入和删除操作。该模型在一个迭代过程中具有很强的性能,甚至具有更浅的编码器。
Oct, 2020