神经机器翻译的密集信息流
本文提出了一种新的神经机器翻译方法,采用层聚合和多层注意力机制,通过引入辅助正则化项促进不同层捕获多样化信息,实验结果表明该方法在 WMT14 英德和 WMT17 中英数据上具有普适性与有效性。
Oct, 2018
本研究提出了一种快速前向连接的 LSTM 神经网络,并采用交替双向架构来堆叠 LSTM 层。基于这种方法,在 WMT'14 英语 - 法语任务上,我们用单一的注意力模型实现了 BLEU=37.7,并在处理未知词汇和模型集成后取得了 BLEU=40.4 的最好得分。
Jun, 2016
Multi-channel Encoder is proposed to improve Attention-based Encoder-Decoder architecture for neural machine translation by enhancing encoding components with different levels of composition, achieving a 6.52 BLEU point improvement on Chinese-English translation and BLEU=38.8 on the WMT14 English-French task.
Dec, 2017
本研究采用深度转移递归神经网络的模型构架方法,增加了模型的深度,通过多次非线性转化的隐藏状态转移以及线性变换路径的设计,有效解决了梯度消失的问题,显著提高了翻译质量,其中 DTMT 在中文 - 英文翻译任务中的 BLEU 分数比 Transformer 模型提高了 2.09 分,并在 WMT14 英德、英法翻译任务上显示出优异的质量。
Dec, 2018
本研究致力于改进基于编码器 - 解码器框架的神经机器翻译模型,通过显式地结合源侧语法树,在两种结构化表示(顺序和树)之间进行学习,提出具有树覆盖模型和双向树编码器的翻译模型,并证实优于其他基线模型。
Jul, 2017
本文提出了一个双重注意力变压器机器翻译模型,通过预训练的卷积神经网络联接空间视觉特征,通过两个分离的注意力部件,在加强的多头注意力层中自由处理源语言单词和图像部分,并在目标语言生成单词时,发现该模型可以有效地利用非常稀少的多模数据集和大规模文本数据集,实现了在英德多模机器翻译任务中的最佳效果
Jul, 2018
本文提出了一种多语言编码器 - 解码器架构,其中包括一个中间的共享‘注意桥接层’,能够获取多语言句子代表。我们通过以一种我们称之为‘注意力桥’的共享层连接带有语言特定编码器和解码器的模型来训练,并展示了一种新的框架来高效实现多语言 NMT。在多重平行数据集中系统地测试了该方法,结果表明该模型能显著提高强度双语模型的性能,并且也可以用于零 - shot 翻译,展示了其抽象和转移学习的能力。
Nov, 2018
本文介绍和评估了引入深度的机器翻译模型的若干现有方法和新型架构,包括深转移 RNN 和不同深度解码时注意力的使用方式。实验结果表明,BiDeep RNN 架构的组合深度为 8 时在速度和翻译质量方面均有显著提高,相比强浅层基线的平均提高 1.5 BLEU。
Jul, 2017
本文介绍了我们在使用 DenseNets 进行声学建模(AM)自动语音识别方面的最新研究,实验结果表明,DenseNet 能够显著地优于其他神经网络模型,如 DNNs、CNNs、VGGs, 甚至在使用只有一半训练数据的情况下表现也很好。
Aug, 2018
本文提出了一种基于 DenseNet 的密集连接共同注意递归神经网络来处理句子匹配问题,并在竞争激烈的基准数据集上验证了其在注意特征和重要信息方面的优势,实现了最先进的性能水平。
May, 2018