ACLJun, 2016
基于快速前向连接的深度递归模型用于神经机器翻译
Deep Recurrent Models with Fast-Forward Connections for Neural Machine Translation
Jie Zhou, Ying Cao, Xuguang Wang, Peng Li, Wei Xu
TL;DR本研究提出了一种快速前向连接的 LSTM 神经网络,并采用交替双向架构来堆叠 LSTM 层。基于这种方法,在 WMT'14 英语 - 法语任务上,我们用单一的注意力模型实现了 BLEU=37.7,并在处理未知词汇和模型集成后取得了 BLEU=40.4 的最好得分。