EMNLPOct, 2023

通过自我监督课程学习增强嵌套布尔逻辑

TL;DR语言模型的认知能力强大,本研究探讨了其推理能力是源于强大的泛化能力还是仅仅是与相关数据的接触。研究发现,任何预训练的语言模型,包括大型语言模型,在面对多层布尔逻辑时只能表现为随机选择器。为了赋予语言模型这种根本能力,本文提出了一种新的自监督学习方法 “课程逻辑推理(CLR)”,通过逐步在训练数据中增加嵌套的布尔逻辑链,并逐渐训练模型从简单的逻辑模式到更难的模式。这种新的训练范式使得语言模型能够有效地泛化到更难且更复杂的逻辑,这是通过简单的训练难以学习到的。此外,研究还表明,布尔逻辑是提高后续通用逻辑任务的良好基础。