ARES:一种用于检索增强生成系统的自动化评估框架
我们介绍了 RAGAs(检索增强生成评估)框架,用于无参考评估检索增强生成(RAG)流程,并提出一套可以用来评估不同维度的指标,而无需依赖于人工标注的真值,这对于 RAG 体系结构的快速评估是至关重要的,尤其是考虑到 LLMs 的快速采用。
Sep, 2023
提出了一种 RE-RAG 框架,通过将显式的上下文相关性估计器(RE)注入到 RAG 系统中,重新评估检索到的上下文,并将更相关的上下文与其重要性量度传递给生成器,从而在不使用标记的文档排名数据训练上下文相关性估计器的情况下,实现与 FiD 变体相当的性能,并改进了 NQ 和 TQA 的性能以及提高了 RE-RAG 的准确性。
Jun, 2024
我们提出了一种新的方法来衡量检索增强的大型语言模型(RAG)的任务特定准确性。通过对与任务相关的文档语料库基于多项选择问题评分的自动生成合成考试来进行评估。我们的方法是自动化、成本高效、可解释和稳健的选择 RAG 系统的最佳组件的策略。我们利用项目反应理论(IRT)估计考试的质量和信息量,以提高任务特定准确性。我们在四个基于 Arxiv 摘要、StackExchange 问题、AWS DevOps 故障排除指南和 SEC 文件的新型开放问答任务上演示了我们的方法。此外,我们的实验揭示了影响 RAG 性能的更一般的因素,如大小、检索机制、提示和微调。最重要的是,我们的研究结果表明,选择正确的检索算法通常比仅仅使用更大的语言模型能够带来更大的性能收益。
May, 2024
检索增强生成(RAG)系统在通过领域特定和时间敏感数据增强大型语言模型(LLM)输出方面非常受欢迎。本文提出了一种严格的数据集创建和评估工作流程,从而定量比较了不同的 RAG 策略,用于布尔代理 RAG 设置的开发和评估。我们在线发布了我们的代码和生成的数据集。
Feb, 2024
Retrieval-Augmented Generation (RAG) 系统的评估和分析框架(RGAR)提供了一种基于可测输出和已建立真实性来系统分析 RAG 系统基准的方法,并讨论了当前基准的局限性和进一步研究的潜在方向。
May, 2024
本文提出了 DIRAS(Domain-specific Information Retrieval Annotation with Scalability)方法,通过细调开源 LLMs 来使用校准的相关性概率注释相关标签,实现了 GPT-4 级别的模型性能,对于实际的 RAG 开发具有帮助。
Jun, 2024
为了解决用户在发出宽泛、开放式的查询时得到丰富的、多方面的回复的问题,我们提出了一种新颖的检索增强生成框架 ——RichRAG。该框架包括一个子方面探索器,用于识别问题中的潜在子方面;一个多方面检索器,用于构建与这些子方面相关的多样化外部文档的候选池;以及一个生成型列表排序器,它是为最终生成器提供前 k 个最有价值的文档的关键模块。经过实验证明,我们的框架能够有效、高效地为用户提供全面且满意的回复。
Jun, 2024
整合外部知识到大型语言模型输出,文献调研主要集中于最新方法与之前方法的比较,缺乏广泛的实验比较。本研究通过评估不同检索增强生成方法对检索精度和答案相似性的影响来填补这一空白。研究发现,Hypothetical Document Embedding (HyDE) 和大型语言模型重排能显著提高检索精度。然而,Maximal Marginal Relevance (MMR) 和 Cohere 重排在基线 Naive RAG 系统上没有明显优势,而 Multi-query 方法表现不佳。句窗检索为最有效的检索精度方法,尽管在答案相似性上表现不稳定。研究证实文件摘要索引作为一种有效的检索方法。欢迎学术界进一步探索 RAG 系统的研究,相关资源可通过我们的 GitHub 资源库 ARAGOG 进行进一步调查。
Apr, 2024
评估检索增强生成(RAG)面临挑战,传统的端到端评估方法计算开销高,我们提出了一种新的评估方法 eRAG,通过使用每个检索列表中的文档,基于下游任务的真实标签评估生成的输出。实验证明 eRAG 与下游 RAG 的性能呈较高相关性,并且具有显著的计算优势。
Apr, 2024