Jun, 2024

揭示双重检索增强生成的理论分析与实践解决方案

TL;DR使用检索增强生成(RAG)的方法将检索到的文本用于增强大型语言模型(LLM)。然而,研究显示 RAG 并不一致有效,甚至可能因检索到的文本含有噪声或错误而误导 LLM,这表明 RAG 具有双重性,既有益又有害。本研究分离和形式化 RAG 的益处和害处,通过表征相似度来近似它们之间的差距,并建立它们之间的权衡机制,使其可解释、可量化和可比较。根据我们的理论,提出了一种实用的新方法 X-RAG,在标记级别上实现纯 LLM 和 RAG 的协同生成,以保留好处和避免害处。基于 OPT、LLaMA-2 和 Mistral 的 LLMs 的实验表明了我们方法的有效性并支持了我们的理论结果。