基于字符串到树的神经机器翻译方法
本研究提出了一种基于依赖解析器的隐式语法表示方法,通过使用中间隐藏的依赖解析器表示来增强基础神经机器翻译模型,可以在中英文和英越翻译任务的基准数据集上显著提高 BLEU 打分表现,并超过了显式树状 RNN 和线性化方法。
May, 2019
本研究致力于改进基于编码器 - 解码器框架的神经机器翻译模型,通过显式地结合源侧语法树,在两种结构化表示(顺序和树)之间进行学习,提出具有树覆盖模型和双向树编码器的翻译模型,并证实优于其他基线模型。
Jul, 2017
该论文探究了加入不同语言结构对神经机器翻译性能的影响,提出了一种能够自然生成目标端任意树形结构的神经机器翻译模型,并且发现无需任何语言知识构造的平衡二叉树结构具有最佳的性能提升,能够超过标准的 seq2seq 模型和其他引入目标端语法的方法,提高 2.1 个 BLEU 分数。
Aug, 2018
本研究提出了一种将语法信息与复数编码器 - 解码器结构相结合的方法,通过注意力机制从源端到目标端联合学习单词级和语法级注意力分数,可以直接集成到任何现有的序列到序列框架中,并在两组数据集上表现出很大的 BLEU 分数提高,特别是在具有显著语法差异的语言对的翻译任务中表现出更大的改进。
Jul, 2023
提出了一种神经编码器 - 解码器机器翻译模型框架,该模型开始交替学习语法和翻译,逐渐将重点放在翻译上,实现了在相对较大的平行语料库(WMT14 英语到德语)和低资源(WIT 德语到英语)设置中的 BLEU 得分显着提高。
Apr, 2018
本文提出了一种新的端对端句法神经机器翻译模型,在源端短语结构的基础上扩展了序列到序列模型,并引入了注意力机制,可以软对齐短语和源句子中的单词,实验结果表明,相比于序列到序列的注意力 NMT 模型,该模型表现显著提升,在 WAT'15 英日翻译数据集上,与当下最优秀的树到串翻译系统相比可媲美。
Mar, 2016
本论文研究了通过将句法信息与深度学习模型相结合,提高自然语言处理任务的性能表现,对多特征的语法 - Transformer 进行了测试,发现在完整数据集和部分数据集中,BLEU 得分都有明显提升,同时,在 GLUE 基准测试中,语法嵌入的 BERT 微调在几个下游任务中表现优于基线。
Nov, 2019
提出了一种新颖的多源技术,利用线性化的解析将源语法合并到神经机器翻译中,通过使用单独的编码器将相同源语句的顺序和解析版本相结合,然后使用分层注意机制将结果表示组合,该模型在 WMT17 英德任务上比 seq2seq 和基线解析模型都有超过 1 BLEU 的改进,并且分析表明,与标准解析方法相比,我们的多源语法模型能够成功进行翻译而不需要任何已解析的输入,在长句子上的表现也不如基线模型差。
Aug, 2018
本文介绍了三种不同类型的编码器,用于将源句法明确地合并到神经机器翻译 (NMT) 中,并在中英文翻译实验中证明了这三种编码器的有效性,尤其是 Mixed RNN encoder 能有效提升 1.4 BLEU points,同时提供了深入分析来揭示源语法如何有益于 NMT。
May, 2017
本文提出了一种基于注意力机制的神经网络机器翻译模型,在源语句的因果关系树中学习一个神经注意力转导模型,并使用句法信息来弥补语料库相对匮乏的问题。实验证明,相比于其他神经翻译模型,该模型在英语 - 德语、英语 - 中文和英语 - 波斯语翻译任务中有优异的表现。
Nov, 2017