上下文 ≈ 环境
本文介绍了大型语言模型在上下文学习中的递归学习能力,即元上下文学习。作者以两个理想化的领域为例,展示了元上下文学习是如何适应性地重塑大型语言模型对预期任务的先验知识,并修改其上下文学习策略。最后,作者通过真实世界回归问题的基准测试发现,元上下文学习与传统学习算法相比具有有竞争力的性能。通过元上下文学习而不是传统的 finetuning 来纯粹地适应大型语言模型应用的环境,可以提高大家对上下文学习的理解,为大型语言模型的应用打下基础。
May, 2023
利用预训练的密集检索模型,我们在有限样本设置中的常见意图分类数据集上,以及特定情况下的细粒度情感分类中,优于微调性能。通过多个实验,我们分析了模型对于上下文示例和不同模型规模的利用情况,并展示了在不同领域中需要不同程度上下文示例的相似性、类名的语义内容和示例与标签之间的正确对应。
Sep, 2023
在本研究中,我们通过对语法敏感性的测试案例来研究通过上下文学习监督的大型语言模型的鲁棒性,并调查模型的预训练语料库组成和监督方法对模型变异性的影响。我们发现,相较于模型大小,模型在这一基本语言现象上的变异性更多地受到预训练语料库组成和监督方法的影响。同时,我们还发现,在代码上进行预训练的模型更好地推广,并在更大程度上受到思维链提示的益处。
Nov, 2023
通过研究激励序列对模型性能的影响,本文强调了本地上下文在减少高度不平衡区域内的偏差中的重要性,并在多个真实数据集的情景中证明了在 - 有高度不平衡的情况下,上下文学习显著优于现有的权重学习方法。
May, 2024
通过研究源自于上下文的学习能力、预训练和标签关系对大语言模型性能的影响,我们的研究发现 LLMs 通常会整合上下文标签信息,但预训练和上下文标签关系被区别对待。同时,模型并不会同等考虑所有上下文信息,这些发现有助于理解和调整 LLM 的行为。
Jul, 2023
通过研究大型语言模型,本文提出 Large language models 可以在面对语境示例时模拟核回归算法,并证明了在 Context prompts 上的贝叶斯推理可以被当作大样本上的核回归,并通过实证研究发现,LLMs 中的注意力和隐藏特征与核回归的行为相匹配,这些为 ICL 领域中观察到的多种现象提供了见解。
May, 2023
大型语言模型对社会产生了巨大影响,但黑盒子情景下,用户只能在当前交互中明确提及来添加或修改内部知识,而不具备修改模型内部知识的能力。本文提出了一个研究,展示了模型在不同上下文中持续流动的信息之间可能出现干扰,从而忘记先前学到的知识,导致模型性能下降,并提出了一个基于 bAbI 数据集的评估基准。
Sep, 2023
通过理论和实证研究,我们首次确定了上下文学习中的标签偏移现象,并提出了一种生成校准方法,通过调整标签边际分布来校准上下文预测分布,实验证明该方法在文本分类任务中显著且一致地优于其他校准方法,同时对于不同的提示配置也表现稳定。
Oct, 2023