提出了一种新颖的多源技术,利用线性化的解析将源语法合并到神经机器翻译中,通过使用单独的编码器将相同源语句的顺序和解析版本相结合,然后使用分层注意机制将结果表示组合,该模型在 WMT17 英德任务上比 seq2seq 和基线解析模型都有超过 1 BLEU 的改进,并且分析表明,与标准解析方法相比,我们的多源语法模型能够成功进行翻译而不需要任何已解析的输入,在长句子上的表现也不如基线模型差。
Aug, 2018
本文探讨了用于神经语音翻译的多任务模型,并对其进行增强,以反映两个直观概念。精准的中间表示和神经关联的模式,参与模型的训练可以提高低资源语音转录和翻译任务的性能。
Feb, 2018
本文提出了一种基于多任务学习方法,利用源端的单语言语言资源来解决神经机器翻译中由于缺少平行文本造成模型质量差的问题,并采用语义分析、句法分析和命名实体识别等辅助任务以将语义和 / 或句法知识注入到翻译模型中,实现了在英法、英波斯和英越三种翻译任务上的有效性验证。
May, 2018
本文探讨了序列到序列模型下的多任务学习问题,主要包括共享编码器和解码器的三种设置,结果表明使用少量的解析和图像标题数据训练模型可以有效地提高翻译质量并在一些测试中实现新的最优结果,并揭示了自编码器和跳越思考等两种无监督学习目标在多任务学习上的有趣属性。
Nov, 2015
本研究提出了一种将语法信息与复数编码器 - 解码器结构相结合的方法,通过注意力机制从源端到目标端联合学习单词级和语法级注意力分数,可以直接集成到任何现有的序列到序列框架中,并在两组数据集上表现出很大的 BLEU 分数提高,特别是在具有显著语法差异的语言对的翻译任务中表现出更大的改进。
Jul, 2023
本研究致力于改进基于编码器 - 解码器框架的神经机器翻译模型,通过显式地结合源侧语法树,在两种结构化表示(顺序和树)之间进行学习,提出具有树覆盖模型和双向树编码器的翻译模型,并证实优于其他基线模型。
Jul, 2017
本文介绍了一种简单的方法,通过翻译成线性化的、词汇化的组成树来融合有关目标语言的语法信息,实验结果表明,与同一数据集上训练的语法无关的神经机器翻译系统相比,WMT16 德英新闻翻译任务的 BLEU 评分得到了明显提升。对语法感知系统的翻译进行分析后发现,它在翻译过程中进行了更多的重排。小规模人类评估也表明了语法感知系统的优势。
Apr, 2017
本文介绍了三种不同类型的编码器,用于将源句法明确地合并到神经机器翻译 (NMT) 中,并在中英文翻译实验中证明了这三种编码器的有效性,尤其是 Mixed RNN encoder 能有效提升 1.4 BLEU points,同时提供了深入分析来揭示源语法如何有益于 NMT。
May, 2017
提出一种新颖的潜变量翻译分类模型,在多语言 NLU 任务中表现优异,实现了迁移学习。
Jul, 2021
本研究将显式神经间语纳入多语言编码 - 解码神经机器翻译(NMT)体系结构中,证明该模型通过直接零 - shot 翻译(不使用中转翻译)并使用源语句嵌入来创建英语 Yelp 评论分类器,该分类器能够通过神经间语协调法也对法语和德语评论进行分类,并且即使我们使用的参数数量比成对的 NMT 模型集合少,但我们的方法对于 WMT15 中的每个语言对产生了相当的 BLEU 得分。
Apr, 2018