RAGSys:冷启动推荐系统作为 RAG 系统
本研究表明,在语义上相似的演示可以提高大型语言模型的性能,这可以通过呈现一些示范来完成,并且可以有效地对大量语言和任务进行泛化,同时,我们还引入了任务特定的演示检索器,以进一步提高性能。
May, 2023
通过对三个文本分类任务的广泛实验,我们发现在选择演示示例时,不仅选择语义上相似的演示示例有益,还选择那些有助于解决测试示例周围固有标签模糊性的演示示例。有趣的是,我们发现包括之前被 LLM 错误分类并且与测试示例的决策边界相近的演示示例能够带来最大的性能提升。
Sep, 2023
通过利用跨语种检索增强的上下文学习(CREA-ICL)方法,从高资源语言中提取语义相似的提示,以改善多语言预训练语言模型(MPLMs)在各种任务中的零样本性能,本文研究了大型语言模型在低资源语言中上下文学习(ICL)性能的限制和挑战,并对检索增强的上下文学习在分类和生成任务中的性能动态提供了洞见。
Nov, 2023
通过详细和批判性地分析信息检索组件对检索辅助生成系统的影响,本研究揭示了特定类型的文档对于有效的检索辅助生成提示公式所需的特征,发现包括不相关的文档能出乎意料地提高准确性超过 30%。这些结果强调了需要开发专门策略来将检索与语言生成模型相结合,为未来研究奠定了基础。
Jan, 2024
语言模型特别是预训练大型语言模型,在上下文少例学习方面表现出非凡的能力,能够在输入上下文中仅通过几个示例适应新任务。最近的一个发展是使用对每个输入查询量身定制的示例进行检索,这不仅提高了学习过程的效率和可伸缩性,还能减少手动示例选择中固有的偏差。基于鼓舞人心的结果和对检索式少例学习领域日益增长的研究,我们对该领域的研究进行了广泛的概述回顾,在此调查中,我们讨论并比较了检索模型、检索训练程序和推理算法的不同设计选择。
Jan, 2024
检视了检索增强型大型语言模型(RA-LLMs)的现有研究,涵盖体系结构、训练策略和应用三个主要技术视角,并介绍了此类模型的基础知识和最新进展,以及它们为大型语言模型(LLMs)带来的实际意义和应用领域的挑战和能力,最后讨论了当前的局限性和未来研究的几个有前途的方向。
May, 2024
提出了一种新的学习范式 —— 提示增强的上下文学习(Hint-enhanced In-Context Learning,HICL),通过从示范中提取与查询相关的知识,以更明确的方式提示大型语言模型(LLM),用于开放域问答,从而提高性能。
Nov, 2023
通过使用影响函数分析训练样本的影响力,我们提出了一种名为 InfICL 的演示选择方法,用于选择对 In-Context Learning(ICL)有高影响力的训练样本,从而提高 ICL 的泛化性能,并在多个实际数据集上展示了 InfICL 相对于现有基准方法的优点。
Feb, 2024
基于长上下文语言模型(LCLMs)的 LOFT 基准评估了 LCLMs 在上下文检索和推理方面的性能,发现它们能与最先进的检索系统和 RAG 系统媲美,但在像 SQL 一样需要组合推理的领域仍存在挑战,提示着需要继续研究随着上下文长度增长时的提示策略的影响。LOFT 为 LCLMs 提供了严格的测试平台,展示了随着模型能力的扩展,它们取代现有范式并解决新任务的潜力。
Jun, 2024
该研究论文介绍了一种统一的语言模型,通过将生成检索、闭书生成和 RAG 有机地结合,利用外部语料库处理各种知识密集型任务。该模型通过引入不同机制实现了有效的检索和生成,并在广泛使用的 KILT 基准测试中展现了出色的性能。
Feb, 2024