Mar, 2023

经过1亿个单词的训练,BERT依然保持着良好状态:BERT遇见英国国家语料库

TL;DR本文探讨了小规模训练对于掩码语言模型的影响,使用英国国家语料库作为语料来源,进行了预训练和性能测试,并提出了优化后的LTG-BERT模型结构,为掩码语言模型的发展提供了新的思路。