检索增强生成中的上下文压缩:大型语言模型的综述
大型语言模型(LLMs)在实际应用中仍面临幻觉、知识更新缓慢和答案透明度不足等挑战。检索增强生成(RAG)是指在LLMs回答问题之前从外部知识库中检索相关信息。该论文概述了LLMs时代RAG的发展范式,总结了三种范式:Naive RAG,Advanced RAG和Modular RAG。同时,它提供了RAG的三个主要组成部分:检索器、生成器和增强方法的摘要和组织,以及每个组件的关键技术。此外,论文讨论了如何评估RAG模型的有效性,并介绍了两种RAG的评估方法、重点指标和能力,以及最新的自动评估框架。最后,从垂直优化、水平可扩展性和RAG的技术堆栈和生态系统三个方面引入了潜在的未来研究方向。
Dec, 2023
Retrieval-Augmented Generation (RAG)是一种合并检索方法和深度学习技术的方法,旨在通过动态整合最新的外部信息解决大型语言模型(LLMs)的静态限制,并通过使用真实世界的数据提供一种成本效益的解决方案来改进LLMs输出的准确性和可靠性。该研究将RAG范式分为四个类别,并从检索的角度提供了详细的视角,同时介绍了RAG的演进和领域的进展。此外,该论文还提出了针对RAG的评估方法,并提出了面临的挑战和未来的研究方向,旨在巩固现有的RAG研究,明确其技术基础,并突出其扩展LLMs的适应性和应用潜力。
Apr, 2024
通过引入AMR改进RAG,提出了一个基于概念的RAG框架,并使用AMR基于概念提炼算法,将检索到的文档压缩成关键概念集,以过滤干扰信息,从而增强推理性能。
May, 2024
检视了检索增强型大型语言模型(RA-LLMs)的现有研究,涵盖体系结构、训练策略和应用三个主要技术视角,并介绍了此类模型的基础知识和最新进展,以及它们为大型语言模型(LLMs)带来的实际意义和应用领域的挑战和能力,最后讨论了当前的局限性和未来研究的几个有前途的方向。
May, 2024
通过引入稀疏技术,Sparse RAG提出了一种新颖的范式,在提高生成质量的同时减少计算成本,通过并行编码检索文档并选择性地解码输出,既降低了延迟,又提升了模型的焦点和生成质量。
May, 2024
使用检索增强生成(RAG)的方法将检索到的文本用于增强大型语言模型(LLM)。然而,研究显示RAG并不一致有效,甚至可能因检索到的文本含有噪声或错误而误导LLM,这表明RAG具有双重性,既有益又有害。本研究分离和形式化RAG的益处和害处,通过表征相似度来近似它们之间的差距,并建立它们之间的权衡机制,使其可解释、可量化和可比较。根据我们的理论,提出了一种实用的新方法X-RAG,在标记级别上实现纯LLM和RAG的协同生成,以保留好处和避免害处。基于OPT、LLaMA-2和Mistral的LLMs的实验表明了我们方法的有效性并支持了我们的理论结果。
Jun, 2024
大型语言模型和检索增强生成技术在各个领域取得巨大成功,但仍存在幻觉问题、知识更新问题和缺乏领域专长等关键问题。本文回顾了检索增强生成技术的显著技术,特别是在检索器和检索融合方面,并提供了教程代码以实现这些代表性技术。此外,本文讨论了检索增强生成技术的训练方法和应用,并探讨了其未来发展方向和挑战。
Jul, 2024
本研究解决了检索增强生成(RAG)系统中上下文窗口大小对生成质量的影响这一问题。通过系统实验,我们提出了一个新的超参数——上下文窗口利用,以优化文本块大小,平衡上下文信息的充分性与无关信息的最小化。研究结果表明,选择合适的文本块大小可以显著提升RAG系统的性能。
Jul, 2024
本文针对传统检索增强生成(RAG)在长上下文语言模型(LLMs)面临的应用挑战,提出了一种新的有序保留的检索增强生成机制(OP-RAG)。研究表明,与长上下文LLMs相比,OP-RAG在长上下文问答任务中提升了答案质量,且在检索块数量适中的情况下表现最佳,显示出RAG在新环境中的潜在价值。
Sep, 2024
本研究解决了现有检索增强生成系统在成本和有效性方面的重大挑战。提出的FlexRAG方法通过将检索到的上下文压缩为紧凑的嵌入,优化了下游RAG性能,从而提升了生成质量并显著降低了运行成本。我们的实验验证了FlexRAG在多种问答数据集上的有效性,证明其为RAG系统提供了一种成本效益高且灵活的解决方案。
Sep, 2024