EMNLPNov, 2016

无监督预训练用于序列到序列学习

TL;DR本文提出了一种通用的无监督学习方法,用于改善序列到序列模型(seq2seq)的准确性;其主要是通过使用两个语言模型的预训练权重对 seq2seq 模型的 encoder 和 decoder 进行初始化,并使用标记数据进行微调,最后将其应用于机器翻译和抽象概述中。研究结果表明,预训练可以提高 seq2seq 模型的泛化性能,进而取得了 WMT 英德翻译任务的最新的最佳 BLEU 分数,其人工评估结果也得到有力佐证。