Google 发布的 GNMT 神经机器翻译系统采用 LSTM 深度学习网络,使用 attention 机制和残差连接,借助词元素 (wordpieces) 将单词划分为子单元,提高了稀有单词处理能力与整体系统精度。
Sep, 2016
本文提出了将 SMT 模型融入 NMT 框架,通过辅助分类器和门函数来结合 SMT 的推荐和 NMT 的生成,从而提高中英翻译的性能。实验结果表明,该方法在多个测试集上均显著优于现有的 NMT 和 SMT 系统。
Oct, 2016
本文旨在解决传统编码器 - 解码器架构中的长度固定向量制约所面临的性能瓶颈,并提出一种基于(软)搜索方式的新方法,在英法翻译任务中获得了与基于短语的模型相当的翻译性能,且(软)对齐结果与人类直觉相符。
Sep, 2014
提出了一种新的神经机器翻译模型,利用目标序列上下文的结构预测来引导翻译,从而使之摆脱顺序约束,实现了重复减少和跨长度翻译的鲁棒性,相较于当前最优方法有着更为优越的效果表现。
Jun, 2018
本文追溯了现代神经机器翻译体系结构的起源,重点探讨了单个神经网络在翻译中的应用,其中涉及到 word 和 sentence embedding 以及编码器 - 解码器网络家族的早期示例,并总结了该领域的最新趋势。
Dec, 2019
本研究致力于改进基于编码器 - 解码器框架的神经机器翻译模型,通过显式地结合源侧语法树,在两种结构化表示(顺序和树)之间进行学习,提出具有树覆盖模型和双向树编码器的翻译模型,并证实优于其他基线模型。
Jul, 2017
分析神经机器翻译的性能,研究了两种模型:RNN 编码器 - 解码器和新提出的门控递归卷积神经网络,结果显示神经机器翻译在翻译较短,不含生词句子时表现相对良好,但随着句子长度和生词数的增加,其性能会迅速降低。同时发现,所提出的门控递归卷积网络能够自动学习句子的语法结构。
本研究描述了基于有限状态机和多堆栈解码的受约束神经机器翻译解码方法,支持目标端约束以及对应对齐输入文本跨度的约束条件,在多个翻译任务上表现出较好的性能,通过注意力受约束解码的方式减少用户约束翻译时的错置和重复。
May, 2018
本文研究了神经机器翻译在多语言翻译和零样本推理上的性能,比较了双语、多语和零样本系统的翻译质量,并调查了循环神经网络和 Transformer 等两种神经网络模型的翻译质量。研究表明,多语言神经机器翻译能够在多个语言之间共享表示空间,实现有效的跨语言学习。
本研究提出一种基于联合表示的神经机器翻译模型,通过提出的高效注意力机制对表示进行精细化处理,实现了新的序列到序列建模范式并在多项机器翻译任务中取得了更优结果,同时提出了系统的模型放大方法,成功将模型规模缩小 50%,同时取得更高的翻译品质。
Feb, 2020