基于覆盖率的上下文学习示例选择
本研究表明,在语义上相似的演示可以提高大型语言模型的性能,这可以通过呈现一些示范来完成,并且可以有效地对大量语言和任务进行泛化,同时,我们还引入了任务特定的演示检索器,以进一步提高性能。
May, 2023
通过对三个文本分类任务的广泛实验,我们发现在选择演示示例时,不仅选择语义上相似的演示示例有益,还选择那些有助于解决测试示例周围固有标签模糊性的演示示例。有趣的是,我们发现包括之前被 LLM 错误分类并且与测试示例的决策边界相近的演示示例能够带来最大的性能提升。
Sep, 2023
通过分析学习基于示例选择方法的工作机制,我们鉴定出与相似度测量相关的两个重要因素:1)在示例和测试用例输入之间整合不同级别的与任务无关的文本相似度能够增强在不同任务中的泛化能力;2)在测量相似度时结合任务特定标签显著提高每个特定任务的性能。基于这些发现,我们提出了两种适应任务无关和任务特定需求的有效简化示例选择方法,消除了昂贵的大型语言模型推理开销。
Jun, 2024
基于大语言模型,提出了一种用于上下文学习的贝叶斯上下文示例选择方法(ByCS),通过基于贝叶斯定理的上下文示例条件概率推理,选择准确的倒推结果来提高性能,并通过多样性和广泛的跨任务和跨模态实验证明了该方法的有效性和鲁棒性。
Apr, 2024
通过使用影响函数分析训练样本的影响力,我们提出了一种名为 InfICL 的演示选择方法,用于选择对 In-Context Learning(ICL)有高影响力的训练样本,从而提高 ICL 的泛化性能,并在多个实际数据集上展示了 InfICL 相对于现有基准方法的优点。
Feb, 2024
语言模型特别是预训练大型语言模型,在上下文少例学习方面表现出非凡的能力,能够在输入上下文中仅通过几个示例适应新任务。最近的一个发展是使用对每个输入查询量身定制的示例进行检索,这不仅提高了学习过程的效率和可伸缩性,还能减少手动示例选择中固有的偏差。基于鼓舞人心的结果和对检索式少例学习领域日益增长的研究,我们对该领域的研究进行了广泛的概述回顾,在此调查中,我们讨论并比较了检索模型、检索训练程序和推理算法的不同设计选择。
Jan, 2024
通过并行处理不同批次的样本,依据语义相似性在上下文学习中同时使用所有示范样本,并通过加权平均语义目标选择最合适的标记,从而提高 ICL 的有效性。
Mar, 2024
本文通过使用 in-context 影响性分析 few-shot in-context learning 性能,提出了基于影响的示例选择方法,该方法在 10 个 SuperGlue 任务上优于大多数基线,并且随着 k-shot 的增加而稳定扩展。分析发现最积极和最消极的示例之间的性能差距高达 22.2%。在案例研究中,我们应用影响力框架来量化 few-shot in-context learning 中的近期偏差现象。
Feb, 2023
该研究从一种新的视角探索了 In-Context Learning (ICL) 机制,通过构建 Comparable Demonstrations (CDs) 来减少演示偏差,从而提供了对 ICL 演示选择策略的更深入理解。
Dec, 2023
大型语言模型通过背景学习在任务导向的例子中取得了显著的性能提升。本文研究了背景学习对语言模型嵌入和注意力表示的影响,以及这些变化如何对行为改进起到中介作用。通过神经科学启发的技术,我们发现在背景学习后,嵌入和注意力表示的变化与行为性能的改善之间存在有意义的相关性,这为对 LLM 行为的潜在表示进行细致理解提供了有价值的工具和见解。
Sep, 2023