May, 2022

ScholarBERT: 大不见得更好

TL;DR本文研究了 14 个基于 transformer 的模型在 11 个科学任务上的表现,并创建了迄今最大、最多样化的科学语言模型 ScholarBERT。然而,在模型大小和训练数据等方面存在重大差异的情况下,我们发现这些模型在这些科学任务上的表现几乎没有差异,这一结果为基于 BERT 架构在科学领域任务中的表现建立了一个上限。