Aug, 2019

基于去噪序列到序列预训练的文本生成

TL;DR本研究提出了一种新的序列到序列(seq2seq)预训练方法PoDA(去噪自编码器的预训练),该方法通过去噪噪声受损文本来联合预训练编码器和解码器,在不使用任何特定任务技术的情况下,提高了模型性能并显著加速了收敛速度,同时,本研究还使用Transformer和指针-生成器网络设计了PoDA的骨干架构,实验表明PoDA可以提高对抽象摘要和语法错误更正这两个文本生成任务的性能。