ACLJun, 2019

用句法监督的 Transformer 加速神经机器翻译

TL;DR本文介绍了一种基于句法指导的 Transformer 模型(SynST),它可以在预测出分块解析树之后自动并行地生成目标语言的所有标记,从而提高了翻译速度。一系列的实验表明,相比基线的自回归 Transformer 模型,SynST 模型在 En-De 和 En-Fr 数据集上实现了更高的 BLEU 分数,且速度快了约 5 倍。