逐步学习上下文环境中的迭代检索
本研究提出了 Retrieval for In-Context Learning (RetICL),一种可学习的方法,用于模拟和最佳选择逐个该如何为 in-context learning 选择任务例子。它将顺序示例选择问题作为马尔可夫决策过程,使用 LSTM 设计示例检索器模型,并使用 PPO 进行训练。我们在数学问题求解数据集上验证了 RetICL,表明它优于启发式和可学习的基线,并在 TabMWP 数据集上实现了最先进的准确性。我们还使用案例研究展示了 RetICL 隐含学习了数学问题求解策略的表示方式。
May, 2023
本文提出了一种新的框架,通过训练密集检索器来识别高质量的上下文示例,进而提高大型语言模型(LLMs)的上下文学习表现。实验证明了该框架可以显著地提高在各种任务上的性能,而且具有良好的泛化能力。
Jul, 2023
本研究表明,在语义上相似的演示可以提高大型语言模型的性能,这可以通过呈现一些示范来完成,并且可以有效地对大量语言和任务进行泛化,同时,我们还引入了任务特定的演示检索器,以进一步提高性能。
May, 2023
通过引入检索增强联系学习方法,利用检索器提取语义相关示例作为演示,提高模型对测试样本的攻击稳健性,并引入一种无需训练的对抗防御方法 DARD,通过丰富示例池来改进模型性能和稳健性。
May, 2024
语言模型特别是预训练大型语言模型,在上下文少例学习方面表现出非凡的能力,能够在输入上下文中仅通过几个示例适应新任务。最近的一个发展是使用对每个输入查询量身定制的示例进行检索,这不仅提高了学习过程的效率和可伸缩性,还能减少手动示例选择中固有的偏差。基于鼓舞人心的结果和对检索式少例学习领域日益增长的研究,我们对该领域的研究进行了广泛的概述回顾,在此调查中,我们讨论并比较了检索模型、检索训练程序和推理算法的不同设计选择。
Jan, 2024
通过提出一种召回 - 检索 - 推理关系抽取框架,将大型语言模型与检索语料库相结合,从而使语言模型能够在上下文中进行可靠的推理,以提高关系抽取的性能。
Apr, 2024
通过利用跨语种检索增强的上下文学习(CREA-ICL)方法,从高资源语言中提取语义相似的提示,以改善多语言预训练语言模型(MPLMs)在各种任务中的零样本性能,本文研究了大型语言模型在低资源语言中上下文学习(ICL)性能的限制和挑战,并对检索增强的上下文学习在分类和生成任务中的性能动态提供了洞见。
Nov, 2023
大语言模型和上下文学习在创建演示检索系统方面具有关键作用,该系统利用检索增强生成为少样本学习任务提供相关演示,通过提出一种新的评估方法,探讨了多样性和质量偏差对有效上下文学习的关键作用,并突出了推荐系统技术在该领域的潜力。
May, 2024
提出了一种新的演示检索框架 DeTriever,使用大语言模型的隐藏状态的加权组合来学习富语义信息,并通过估计输出查询之间的相似性来评估示例之间的相对好处。在两个热门 NL2SQL 基准测试上的实验表明,该方法在一次性 NL2SQL 任务中显著优于最先进的基准线。
Jun, 2024