ICLRDec, 2019

预训练百科全书:弱监督知识预训练语言模型

TL;DR本文研究预训练语言模型(如 BERT)在零样本的事实推理任务中的知识捕获,提出一种有效的弱监督预训练目标,通过实体知识的显式融入,实现了对真实世界知识的建模,实验结果表明,该模型在答题、实体类型标注等任务上均优于 BERT。