使用卷积神经网络对源语言进行编码以进行机器翻译
该研究提出了一种基于卷积神经网络的翻译选择方法,该方法可以判断两种语言中短语对之间的相似性,以及在源语言中包含短语的上下文,通过渐进式学习,能够更好地表示词组和句子级上下文,实验结果显示,与基线系统相比,该方法能够显着提高 1.4 个 BLEU 分数。
Mar, 2015
本文提出了一种基于卷积层的神经机器翻译框架,相比双向 LSTM 网络,该框架可以同时编码整个源语句,从而加速了翻译速度,在 WMT'16 数据集上达到了竞争水平的准确性,并在 WMT'15 和 WMT'14 数据集上取得了优异的结果。
Nov, 2016
本文旨在解决传统编码器 - 解码器架构中的长度固定向量制约所面临的性能瓶颈,并提出一种基于(软)搜索方式的新方法,在英法翻译任务中获得了与基于短语的模型相当的翻译性能,且(软)对齐结果与人类直觉相符。
Sep, 2014
通过深度神经网络代替线性最大熵模型,结合 Discriminative Word Lexicon 模型和全球上下文句子的优势,该研究在现有的翻译系统中改善了三种不同语言对的性能达到 0.5 个 BLEU 点。
Apr, 2015
本论文提出了一种基于 transformer 模型的新型神经机器翻译架构,采用自注意力机制加局部约束对 attention 接受场进行改进,实现了在多个翻译基准数据集上的最新 BLEU 最优结果。
May, 2019
提出了一种新的神经机器翻译模型,利用目标序列上下文的结构预测来引导翻译,从而使之摆脱顺序约束,实现了重复减少和跨长度翻译的鲁棒性,相较于当前最优方法有着更为优越的效果表现。
Jun, 2018
通过内存网络以及结构化预测方式解决文档级机器翻译问题。在训练过程中囊括源文件和目标文件,通过分别采用两个记忆组件来处理相应上下文,同时提出一种基于块协调下降的迭代解码算法。在法语、德语和爱沙尼亚语文件中进行英语翻译的实验结果表明,该模型在利用上下文方面有效,在 BLEU 和 METEOR 方面的表现均显著优于先前的方法。
Nov, 2017
该论文探索了使用源语言全局句子级特征来预测目标语言本地翻译,并提出了一种新的双语限制基于块的卷积神经网络来学习语义表示,并使用局部和全局信息的前馈神经网络来更好地预测翻译质量。实验表明,该方法可以在翻译质量方面得到实质性的提高。
Feb, 2015
本文介绍了三种不同类型的编码器,用于将源句法明确地合并到神经机器翻译 (NMT) 中,并在中英文翻译实验中证明了这三种编码器的有效性,尤其是 Mixed RNN encoder 能有效提升 1.4 BLEU points,同时提供了深入分析来揭示源语法如何有益于 NMT。
May, 2017
本研究提出一种基于联合表示的神经机器翻译模型,通过提出的高效注意力机制对表示进行精细化处理,实现了新的序列到序列建模范式并在多项机器翻译任务中取得了更优结果,同时提出了系统的模型放大方法,成功将模型规模缩小 50%,同时取得更高的翻译品质。
Feb, 2020