联合学习对齐和翻译的神经机器翻译
Google 发布的 GNMT 神经机器翻译系统采用 LSTM 深度学习网络,使用 attention 机制和残差连接,借助词元素 (wordpieces) 将单词划分为子单元,提高了稀有单词处理能力与整体系统精度。
Sep, 2016
本文追溯了现代神经机器翻译体系结构的起源,重点探讨了单个神经网络在翻译中的应用,其中涉及到 word 和 sentence embedding 以及编码器 - 解码器网络家族的早期示例,并总结了该领域的最新趋势。
Dec, 2019
分析神经机器翻译的性能,研究了两种模型:RNN 编码器 - 解码器和新提出的门控递归卷积神经网络,结果显示神经机器翻译在翻译较短,不含生词句子时表现相对良好,但随着句子长度和生词数的增加,其性能会迅速降低。同时发现,所提出的门控递归卷积网络能够自动学习句子的语法结构。
Sep, 2014
本研究探讨了不同的训练方法对用于医学数据的波兰 - 英语机器翻译系统的影响,使用欧洲药品管理局平行文本语料库作为神经和统计网络翻译系统训练的基础,并对主要机器翻译评估指标进行了分析。该研究的重点是比较和实施实时医学翻译器。
Sep, 2015
本文提出了将 SMT 模型融入 NMT 框架,通过辅助分类器和门函数来结合 SMT 的推荐和 NMT 的生成,从而提高中英翻译的性能。实验结果表明,该方法在多个测试集上均显著优于现有的 NMT 和 SMT 系统。
Oct, 2016
本篇论文提出了动态神经机器翻译 (Dynamic NMT) 的方法,通过对测试句子进行微调以适应具体场景,从而显着提高翻译性能。该方法特别适用于高度相似的句子。
Sep, 2016
我们提出了一种基于神经网络的双语句子对深度生成模型来进行机器翻译,能够通过共享的潜在表示联合生成源语言句子和目标语言句子,并使用摊余变分推断和重参数化梯度进行高效的训练,可以在领域内、混合领域数据、金标准和合成数据混合学习等各种情况下显示出比条件建模(即标准神经机器翻译)更好的性能。同时,我们讨论了联合建模的统计学意义,并提出了一种高效的近似方法来进行最大后验解码,以便在测试时进行快速预测。
Jul, 2018
通过添加 reconstructor 到 encoder-decoder 框架中,从输出的 target sentence 的隐藏层中重构输入的 source sentence,改善了神经机器翻译的可靠性和翻译质量。
Nov, 2016
本论文提出了一种基于神经机器翻译的实时翻译框架,通过代理决策来实现翻译输出实时化并且具有可控的翻译质量与延迟,通过在两种语言对上的实验结果表明了该方法在定量与定性方面的有效性。
Oct, 2016