Mar, 2020
ELECTRA:将文本编码器视为判别器而非生成器的预训练
ELECTRA: Pre-training Text Encoders as Discriminators Rather Than
Generators
TL;DR提出了一种更节省样本的预训练任务,叫做替换标记检测。该方法是通过一个小的生成网络从语料库中替换一些标记,然后通过训练一个判别模型,以预测输入标记是否被替换,而不是预测被替换的标记的原始身份来破坏输入,从而定义所有输入标记的任务,比普通的Masked language modeling更有效,并表现出比BERT更好的上下文表示学习效果。