寻找上下文学习的支持例子
通过示例展示了大规模语言模型通过上下文学习实现各种任务的强大能力,为解决示例选择的不稳定性问题,提出了一种基于强化学习的算法用于识别泛化策略,以选择最佳示例以提高模型性能和泛化能力。
Nov, 2022
通过分析预训练数据,研究了上下文学习在自然语言处理任务中的表现,并发现罕见、长尾词汇的含量较高的、具有挑战性的训练数据可以显著提高语言模型的上下文学习能力,将有助于指导未来预训练数据的构建。
Jun, 2023
本研究提出了一个基于 PAC 理论的框架来探究上下文学习及其可学性,发现在语言模型的参数保持不变的情况下,通过将下游任务的训练示例包含在其输入中,可以调整模型以执行各种下游自然语言处理任务,预训练分布是潜在任务的混合时,这些任务可以通过上下文学习有效地学习,这种学习更多地是关于识别任务而不是学习任务,并希望这一研究框架为深入理解上下文学习的新学习范式打下基础。
Mar, 2023
本文提出了一种有效的方法,利用标注数据和语言模型(LM)检索 in-context learning 的提示,训练稠密的检索器并在三个序列到序列任务中发现它明显优于之前的工作和多个基线。
Dec, 2021
本文介绍了大型语言模型在上下文学习中的递归学习能力,即元上下文学习。作者以两个理想化的领域为例,展示了元上下文学习是如何适应性地重塑大型语言模型对预期任务的先验知识,并修改其上下文学习策略。最后,作者通过真实世界回归问题的基准测试发现,元上下文学习与传统学习算法相比具有有竞争力的性能。通过元上下文学习而不是传统的 finetuning 来纯粹地适应大型语言模型应用的环境,可以提高大家对上下文学习的理解,为大型语言模型的应用打下基础。
May, 2023
通过研究激励序列对模型性能的影响,本文强调了本地上下文在减少高度不平衡区域内的偏差中的重要性,并在多个真实数据集的情景中证明了在 - 有高度不平衡的情况下,上下文学习显著优于现有的权重学习方法。
May, 2024
本文提出了一种数据压缩方法来选择上下文示例,引入了一个两阶段的方法,可以有效选择相关示例,并在上下文示例中保留足够的训练数据集信息。使用四个语言模型,在五个不同的真实世界数据集上,我们的方法显示了平均 5.90% 的显著改进。
May, 2024
本研究探讨了大语言模型中的上下文学习现象,并证明了基于长期相关性的预训练可以促进上下文学习。通过人工合成数据集,实验结果表明了模型规模对上下文学习的影响,以及例子顺序和零样本学习等现象。
Nov, 2021