ICMLMay, 2019
MASS: 面向语言生成的遮掩序列到序列预训练
MASS: Masked Sequence to Sequence Pre-training for Language Generation
Kaitao Song, Xu Tan, Tao Qin, Jianfeng Lu, Tie-Yan Liu
TL;DR该论文介绍了 MASS 作为一种在 encoder-decoder 架构下的自然语言生成前预训练方法,通过在随机遮掩的句子中构建代表性提取和语言建模能力,再在文本生成、翻译及会话生成等多个语言生成任务中进行进一步微调,以获得比其他无预训练模型和其他预训练方法更加出色的表现。