关键词non-autoregressive machine translation
搜索结果 - 9
- Levenshtein 变换器及其变体的解码分析
Levenshtein transformer (LevT) 是一个非自回归机器翻译模型,具有高解码效率和可比的翻译质量,其中 BLEU 分数表明了它的并行解码与迭代修正过程。本研究关注 LevT 的解码器,分析了解码结果的长度、子词生成和 - ACL将翻译记忆集成到非自回归机器翻译中
本文研究利用 Translation Memory 对 Levenshtein Transformer 进行改进来进行非自回归机器翻译,通过调整数据表示和引入额外的删除操作,提高了解码效率。同时讨论了利用 Translation Memor - MvSR-NAT:用于非自回归机器翻译的多视角子集正则化
介绍了一种名为 Multi-view Subset Regularization (MvSR) 的新型规则化方法,通过保持模型的一致性和鼓励预测共享掩码位置来改善条件蒙面语言模型(CMLM)的表现,在三个公共基准测试中获得了显着的 BLEU - ACL非自回归机器翻译共享编码器的多任务学习
通过多任务学习和编码器共享,将自回归机器翻译的知识转移到非自回归机器翻译模型中,实现翻译质量的提升。
- EMNLP连续空间迭代优化非自回归神经机器翻译
该研究提出了一种基于连续空间的非自回归机器翻译推理过程,采用连续潜在变量模型进行翻译,使用梯度优化方法在推理时逐步细化翻译,相比于现有方法在标记空间进行细化,该方法具备计算效率高、较高的边缘概率和 BLEU 评分等优势。
- ACLENGINE: 基于能量的推理网络用于非自回归机器翻译
该研究提出了一种基于能量的推断网络方法,训练非自回归机器翻译模型,以最小化预训练的自回归模型定义的能量,实现了在 IWSLT 2014 DE-EN 和 WMT 2016 RO-EN 数据集上非自回归结果的最佳效果。
- 具有潜在对齐的非自回归机器翻译
本文提出了两种强有力的方法,CTC 和 Imputer,用于非自回归机器翻译,模拟了动态规划中的潜在对齐。我们重新审视了 CTC 和 Imputer 模型,并证明了一个简单的 CTC 模型可以实现单步非自回归机器翻译的最新成果,与之前的工作 - ICLR非自回归机器翻译中的知识蒸馏理解
本文通过实验发现,知识蒸馏可以降低数据集的复杂度,帮助非自回归机器翻译模型 NART 更好地建模输出的变化,提高翻译质量,并提出多种方法来调整数据集复杂度以改进 NAT 模型的性能,达到了最先进的性能水平。
- AAAI辅助规则下的非自回归机器翻译
本文提出通过在 NAT 模型的训练过程中引入两个辅助正则化项来提高解码器的隐藏表示质量,以解决重复和不完整翻译的问题,并在几个基准数据集上进行了广泛实验,表明正则化策略是有效的,可以显著提高 NAT 模型的准确性和效率。