Feb, 2021

COCO-LM:文本序列纠错和对比用于语言模型预训练

TL;DR本文提出一种自监督学习框架 COCO-LM,通过纠错和对比损坏的文本序列,对语言模型进行预训练,并在 GLUE 和 SQuAD 上的实验表明,其在准确性和预训练效率方面均优于最近的最先进预训练模型。