同步双向神经机器翻译
本文提出了一种基于双向解码器的神经机器翻译模型,其中正向解码器按原有的方法工作,但加入了逆向解码器,以利用源语言和目标语言的双向信息,从而提高翻译质量。实验结果表明,该模型在中英文和英德文翻译任务上均能够显著提高 NMT 的效果。
Jan, 2018
该研究通过改进基于 Transformer 的异步分段双向解码策略,以提高翻译效率和准确性。实验结果表明,在处理长句子方面,与传统的单向翻译方法相比,我们的方法表现出更高的效率和改善的翻译质量。此外,研究还分析了句子长度对解码结果的影响,并探讨了模型在不同场景中的性能。这项研究的发现不仅为 NMT 领域提供了一种有效的编码策略,而且为未来的研究开辟了新的途径和方向。
Feb, 2024
提出了一种同步双向推理模型,基于先前预测的左侧历史假设和右侧未来预测,同时利用从左到右和从右到左的解码生成输出,通过机器翻译和摘要生成等多个任务的广泛实验表明,其表现很好。
Feb, 2019
本文提出了将 SMT 模型融入 NMT 框架,通过辅助分类器和门函数来结合 SMT 的推荐和 NMT 的生成,从而提高中英翻译的性能。实验结果表明,该方法在多个测试集上均显著优于现有的 NMT 和 SMT 系统。
Oct, 2016
本论文提出一种结合了回译和多语言神经机器翻译技术的新技术,通过为一个语言对训练一个模型来改善在低资源和跨领域情况下的机器翻译效果,并且能显著降低培训和部署成本。
May, 2018
提出了一种用于机器翻译的神经网络模型,其能够动态决定何时继续输入源文本或生成翻译文本,通过使用单向或双向编码器来处理实际语音和文本输入,使用词对齐方法生成分块训练数据,并在 IWSLT 2020 英 - 德任务上优于 wait-k 基线 2.6 到 3.7% BLEU 中的结果。
May, 2020
本研究致力于改进基于编码器 - 解码器框架的神经机器翻译模型,通过显式地结合源侧语法树,在两种结构化表示(顺序和树)之间进行学习,提出具有树覆盖模型和双向树编码器的翻译模型,并证实优于其他基线模型。
Jul, 2017
介绍了一种使用自我知识蒸馏和双向解码的神经机器翻译模型,使用这种方法可以鼓励自回归 NMT 模型提前规划,实验表明该方法在多个机器翻译数据集上比强 Transformer 基线方法显著优秀。
Mar, 2022
提出了一种新的神经机器翻译模型,利用目标序列上下文的结构预测来引导翻译,从而使之摆脱顺序约束,实现了重复减少和跨长度翻译的鲁棒性,相较于当前最优方法有着更为优越的效果表现。
Jun, 2018
本论文提出了一种基于神经机器翻译的实时翻译框架,通过代理决策来实现翻译输出实时化并且具有可控的翻译质量与延迟,通过在两种语言对上的实验结果表明了该方法在定量与定性方面的有效性。
Oct, 2016