R^2AG: 将检索信息融入检索增强生成
大型语言模型(LLMs)在实际应用中仍面临幻觉、知识更新缓慢和答案透明度不足等挑战。检索增强生成(RAG)是指在 LLMs 回答问题之前从外部知识库中检索相关信息。该论文概述了 LLMs 时代 RAG 的发展范式,总结了三种范式:Naive RAG,Advanced RAG 和 Modular RAG。同时,它提供了 RAG 的三个主要组成部分:检索器、生成器和增强方法的摘要和组织,以及每个组件的关键技术。此外,论文讨论了如何评估 RAG 模型的有效性,并介绍了两种 RAG 的评估方法、重点指标和能力,以及最新的自动评估框架。最后,从垂直优化、水平可扩展性和 RAG 的技术堆栈和生态系统三个方面引入了潜在的未来研究方向。
Dec, 2023
Retrieval-Augmented Generation (RAG) 是一种合并检索方法和深度学习技术的方法,旨在通过动态整合最新的外部信息解决大型语言模型(LLMs)的静态限制,并通过使用真实世界的数据提供一种成本效益的解决方案来改进 LLMs 输出的准确性和可靠性。该研究将 RAG 范式分为四个类别,并从检索的角度提供了详细的视角,同时介绍了 RAG 的演进和领域的进展。此外,该论文还提出了针对 RAG 的评估方法,并提出了面临的挑战和未来的研究方向,旨在巩固现有的 RAG 研究,明确其技术基础,并突出其扩展 LLMs 的适应性和应用潜力。
Apr, 2024
Retrieval-Augmented Generation (RAG) 系统的评估和分析框架(RGAR)提供了一种基于可测输出和已建立真实性来系统分析 RAG 系统基准的方法,并讨论了当前基准的局限性和进一步研究的潜在方向。
May, 2024
使用检索增强生成(RAG)的方法将检索到的文本用于增强大型语言模型(LLM)。然而,研究显示 RAG 并不一致有效,甚至可能因检索到的文本含有噪声或错误而误导 LLM,这表明 RAG 具有双重性,既有益又有害。本研究分离和形式化 RAG 的益处和害处,通过表征相似度来近似它们之间的差距,并建立它们之间的权衡机制,使其可解释、可量化和可比较。根据我们的理论,提出了一种实用的新方法 X-RAG,在标记级别上实现纯 LLM 和 RAG 的协同生成,以保留好处和避免害处。基于 OPT、LLaMA-2 和 Mistral 的 LLMs 的实验表明了我们方法的有效性并支持了我们的理论结果。
Jun, 2024
整合外部知识到大型语言模型输出,文献调研主要集中于最新方法与之前方法的比较,缺乏广泛的实验比较。本研究通过评估不同检索增强生成方法对检索精度和答案相似性的影响来填补这一空白。研究发现,Hypothetical Document Embedding (HyDE) 和大型语言模型重排能显著提高检索精度。然而,Maximal Marginal Relevance (MMR) 和 Cohere 重排在基线 Naive RAG 系统上没有明显优势,而 Multi-query 方法表现不佳。句窗检索为最有效的检索精度方法,尽管在答案相似性上表现不稳定。研究证实文件摘要索引作为一种有效的检索方法。欢迎学术界进一步探索 RAG 系统的研究,相关资源可通过我们的 GitHub 资源库 ARAGOG 进行进一步调查。
Apr, 2024
通过详细和批判性地分析信息检索组件对检索辅助生成系统的影响,本研究揭示了特定类型的文档对于有效的检索辅助生成提示公式所需的特征,发现包括不相关的文档能出乎意料地提高准确性超过 30%。这些结果强调了需要开发专门策略来将检索与语言生成模型相结合,为未来研究奠定了基础。
Jan, 2024
基于 Retrieval-Augmented Generation (RAG) 方法,结合语义搜索技术,如稠密向量索引和稀疏编码器索引,以及混合查询策略,我们提出了 ' 混合 RAG' 方法。通过在 IR 数据集和 Generative Q&A 数据集上取得更好的检索结果并创造新的基准,我们进一步将这种 ' 混合 Retriever' 扩展到 RAG 系统,甚至超过 fine-tuning 性能。
Mar, 2024
学习改进查询以实现检索增强生成,通过加入外部相关文档,使模型具备显式重写、分解和消歧的能力,并在各种问题回答数据集中取得了优于现有方法的表现。
Mar, 2024