EMNLPSep, 2021
语言模型需要多少预训练数据才能学习语法?
How much pretraining data do language models need to learn syntax?
Laura Pérez-Mayos, Miguel Ballesteros, Leo Wanner
TL;DR本研究探讨了预训练数据大小对 RoBERTa 模型的句法能力及其在下游应用中的影响,并分析了训练此类模型的成本效益权衡。结果显示,虽然预训练数据大小的增加会显著提高模型的句法能力及在下游任务中表现,但这也带来了更高的经济和环境成本。