ICMLMay, 2019

MASS: 面向语言生成的遮掩序列到序列预训练

TL;DR该论文介绍了 MASS 作为一种在 encoder-decoder 架构下的自然语言生成前预训练方法,通过在随机遮掩的句子中构建代表性提取和语言建模能力,再在文本生成、翻译及会话生成等多个语言生成任务中进行进一步微调,以获得比其他无预训练模型和其他预训练方法更加出色的表现。