Jul, 2023

探究上下文学习行为:与监督学习的比较

TL;DR大型语言模型(LLMs)在上下文学习(ICL)方面展示了显着的能力,在没有明确预训练的情况下,仅通过少量的训练示例学习新任务。然而,尽管LLMs获得了成功,对于ICL如何从给定的提示中学习知识却知之甚少。在本文中,为了对ICL的学习行为有所了解,我们通过ICL和监督学习(SL)分别使用相同的演示示例训练相同的LLMs,并研究它们在一系列分类任务中在标签扰动(即嘈杂标签和标签不平衡)下的表现。通过广泛的实验证明,我们首先发现黄金标签对下游上下文性能有显著影响,尤其是对于大型语言模型;然而,对于所有模型大小,不平衡标签对ICL的影响较小。其次,通过与SL进行比较,我们实证表明ICL对标签扰动的敏感性较低,并且随着模型大小的增加,ICL逐渐获得与SL相当的性能。