Feb, 2023

掩码语言建模中的表征缺陷

TL;DR本文提出了一种新的预训练方法 MAE-LM,通过在 Masked Autoencoder 中排除 [MASK] 符号的编码器,解决了 Masked Language Modeling 预训练方法中 [MASK] 符号造成的表达上的不足问题,通过在 GLUE 和 SQuAD 基准测试上的表现,证明了 MAE-LM 在不同预训练设置和模型大小下都优于 MLM 预训练模型。