Sep, 2024

在长上下文语言模型时代捍卫RAG

TL;DR本文针对传统检索增强生成(RAG)在长上下文语言模型(LLMs)面临的应用挑战,提出了一种新的有序保留的检索增强生成机制(OP-RAG)。研究表明,与长上下文LLMs相比,OP-RAG在长上下文问答任务中提升了答案质量,且在检索块数量适中的情况下表现最佳,显示出RAG在新环境中的潜在价值。