ACLJun, 2023

自然语言处理中的 "科学负债": 为更严谨的语言模型预训练研究而辩

TL;DR本文对在语言模型预训练文献中的当前研究方法进行了基于证据的批判。尽管越来越好的预训练语言模型(PLMs)已经取得了快速进展,但当前的 PLM 研究实践通常混淆不同可能的模型改进来源,没有在可比条件下进行适当的消融研究和原则性比较。