Jul, 2019

RoBERTa: 一个稳健优化的 BERT 预训练方法

TL;DR本研究进行了 BERT 预训练的复现研究,并对其关键的超参数和训练数据大小的影响进行了测量,发现 BERT 被显著低估,并且可以超过其之后发布的每个模型的表现,提高了以前被忽视的设计选择的重要性,并引发了对最近报道的改进的疑问。