上下文学习的主动样本选择
本文旨在探讨如何使用主动学习算法作为选择最佳演示文稿的方法来服务于上下文学习,对比了基于不确定性、多样性和相似性等各种标准的演示文稿选择算法,并表明相似性算法胜过其他所有方法,包括随机抽样和不确定性抽样。
May, 2023
本文从贝叶斯的角度出发,将大型语言模型视作主题模型,提出了一种从标注数据中选择最佳示范的算法,并在实际数据集中证明相对于随机选择基线,平均有 12.5% 的显著改进。研究表明,大型语言模型从示范中隐式地推断出潜在的概念变量。
Jan, 2023
本研究分析显示:大型语言模型不需要准确的演示,而是通过演示提供的标签空间、输入文本的分布和序列的整体格式等方面驱动任务表现的提高。因此,揭示了语境学习的原理和作用方式,同时提出了新的问题,即能否仅仅通过推理来学习大型语言模型的更多内容。
Feb, 2022
本文提出了一种基于语言模型的支持性示例挑选方案,通过两阶段的方法解决了 NP-hard 组合优化问题并使用多样性引导的波束搜索方法优化选定示例的性能,进一步实验证明了我们方法的有效性和 “支持性示例” 和 “上下文学习” 的相关特征。
Feb, 2023
基于大语言模型,提出了一种用于上下文学习的贝叶斯上下文示例选择方法(ByCS),通过基于贝叶斯定理的上下文示例条件概率推理,选择准确的倒推结果来提高性能,并通过多样性和广泛的跨任务和跨模态实验证明了该方法的有效性和鲁棒性。
Apr, 2024
本文介绍了大型语言模型在上下文学习中的递归学习能力,即元上下文学习。作者以两个理想化的领域为例,展示了元上下文学习是如何适应性地重塑大型语言模型对预期任务的先验知识,并修改其上下文学习策略。最后,作者通过真实世界回归问题的基准测试发现,元上下文学习与传统学习算法相比具有有竞争力的性能。通过元上下文学习而不是传统的 finetuning 来纯粹地适应大型语言模型应用的环境,可以提高大家对上下文学习的理解,为大型语言模型的应用打下基础。
May, 2023
本文提出了一种新的框架,通过训练密集检索器来识别高质量的上下文示例,进而提高大型语言模型(LLMs)的上下文学习表现。实验证明了该框架可以显著地提高在各种任务上的性能,而且具有良好的泛化能力。
Jul, 2023