ATM:通过对抗调节多智能体系统实现强大的检索增强生成器
这项研究将大型语言模型与检索增强生成相结合,提出了一种名为 RAAT 的新的检索增强自适应对抗训练方法,通过适应性对抗训练动态调整模型的训练过程以应对检索噪声,并通过多任务学习确保模型内部识别噪声上下文的能力。实验证明,使用 RAAT 训练的 LLaMA-2 7B 模型在不同噪声条件下显著提高了 F1 和 EM 分数。
May, 2024
大型语言模型(LLMs)在实际应用中仍面临幻觉、知识更新缓慢和答案透明度不足等挑战。检索增强生成(RAG)是指在 LLMs 回答问题之前从外部知识库中检索相关信息。该论文概述了 LLMs 时代 RAG 的发展范式,总结了三种范式:Naive RAG,Advanced RAG 和 Modular RAG。同时,它提供了 RAG 的三个主要组成部分:检索器、生成器和增强方法的摘要和组织,以及每个组件的关键技术。此外,论文讨论了如何评估 RAG 模型的有效性,并介绍了两种 RAG 的评估方法、重点指标和能力,以及最新的自动评估框架。最后,从垂直优化、水平可扩展性和 RAG 的技术堆栈和生态系统三个方面引入了潜在的未来研究方向。
Dec, 2023
检视了检索增强型大型语言模型(RA-LLMs)的现有研究,涵盖体系结构、训练策略和应用三个主要技术视角,并介绍了此类模型的基础知识和最新进展,以及它们为大型语言模型(LLMs)带来的实际意义和应用领域的挑战和能力,最后讨论了当前的局限性和未来研究的几个有前途的方向。
May, 2024
检索增强生成(RAG)系统在通过领域特定和时间敏感数据增强大型语言模型(LLM)输出方面非常受欢迎。本文提出了一种严格的数据集创建和评估工作流程,从而定量比较了不同的 RAG 策略,用于布尔代理 RAG 设置的开发和评估。我们在线发布了我们的代码和生成的数据集。
Feb, 2024
检索增强生成(RAG)通过使用外部知识数据库,扩展现代大型语言模型(LLMs)在聊天机器人应用中的能力,使开发者能够在没有昂贵的训练或微调的情况下调整和个性化 LLM 的输出。本研究提出了针对 RAG 增强 LLMs 的新攻击方式,通过向其知识数据库中注入单个恶意文档来危害受害者的 RAG 系统,从而引发多种针对生成模型的恶意攻击。
May, 2024
Retrieval-Augmented Generation (RAG) 是一种合并检索方法和深度学习技术的方法,旨在通过动态整合最新的外部信息解决大型语言模型(LLMs)的静态限制,并通过使用真实世界的数据提供一种成本效益的解决方案来改进 LLMs 输出的准确性和可靠性。该研究将 RAG 范式分为四个类别,并从检索的角度提供了详细的视角,同时介绍了 RAG 的演进和领域的进展。此外,该论文还提出了针对 RAG 的评估方法,并提出了面临的挑战和未来的研究方向,旨在巩固现有的 RAG 研究,明确其技术基础,并突出其扩展 LLMs 的适应性和应用潜力。
Apr, 2024
通过结合检索式方法和生成模型,提出了 TrojRAG 来识别检索部分(RAG 数据库)的漏洞和攻击,并间接攻击生成部分(LLMs),通过中毒定制内容来实现检索后门和语义操纵,这些攻击可以包括 RAG 的拒绝服务攻击和以触发器为条件的生成 LLMs 的语义操纵。
Jun, 2024
本文介绍了通过使用 Retrieval Augmented Generation(RAG)来改善问题求解性能的 ARM-RAG(Auxiliary Rationale Memory for Retrieval Augmented Generation)系统,并展示了存储和检索推理链对于小学数学问题的性能具有积极影响。
Nov, 2023
大型语言模型近年来在各个领域取得了显著成就,然而,知识更新的及时性和成本以及语言模型的幻觉问题等因素限制了其在知识密集型任务中的应用,而检索增强生成可以提供帮助。因此,本研究提出了一种名为 MetRag 的多层思维增强的检索增强生成框架,综合了相似性思维和效用思维,并将大型语言模型用作任务自适应摘要工具,以提升检索增强生成的紧凑性。通过对知识密集型任务的大量实验,证明了 MetRag 的优越性。
May, 2024