面向电子离子对撞机的基于 RAG 的摘要生成代理
对大型语言模型(LLMs)在检索增强生成(RAG)式摘要任务中的鲁棒性进行了研究,提出了一种创新的评估框架 LogicSumm,通过现实场景评估 LLMs 在复杂的真实场景下的性能,并基于 LogicSumm 的限制提出了 SummRAG 系统,通过训练对话和模型微调来提高鲁棒性,实验证实了 SummRAG 的能力,展示了逻辑连贯性和摘要质量的提升。
Mar, 2024
人工智能生成内容(AIGC)发展已经通过模型算法的进展、可扩展的基础模型结构和大量高质量数据集的可用性得到促进。检索增强生成(Retrieval-Augmented Generation,RAG)作为一种范例,通过从可用数据存储中检索相关对象来增强 AIGC 结果,以提高准确性和鲁棒性。该论文综述了将 RAG 技术整合到 AIGC 场景中的现有工作,分类和总结了不同检索器和生成器的增强方法,概述了 RAG 在不同模态和任务中的实际应用,并提出了未来研究的潜在方向。
Feb, 2024
使用图形增强生成(Graph RAG)方法结合知识源和查询集中的总结方法,能够在大规模语言模型中回答关于私人文档集合的全局问题,提高生成答案的完整性和多样性。
Apr, 2024
本文讨论了检索增强生成模型在医学教育领域的应用,并提出了一种使用代表向量对大规模非结构化文本数据进行抽取和生成式摘要的方法。
Aug, 2023
通过整合精细调整的大型语言模型与具有逻辑推理、规划和交互式约束求解能力的强大符号推理引擎,本研究介绍了 Cora,一个基于神经符号人工智能平台构建的协作研究助手,该助手旨在高风险领域执行复杂的研究和探索任务。本研究讨论了此类领域中的多步推理挑战,批评了现有的基于大型语言模型的方法的局限性,并展示了 Cora 的神经符号方法如何有效应对这些问题。我们提供了系统架构概述、知识提取和形式推理的关键算法,并展示了初步评估结果,突显了 Cora 与知名的大型语言模型和 RAG 方法相比的优越性能。
Jun, 2024
通过结合 Retrieval Augmented Generation (RAG) 与 ChatGPT、Gemini 和 Llama 等大型语言模型 (LLMs),利用特殊的电力知识图来提高对电力数据集的复杂问题的响应的准确性和特异性。我们的研究结果表明,RAG 方法不仅可以减少由 LLMs 生成的不正确信息的发生,还可以通过以可验证的数据为基础来显著提高输出的质量。
Jun, 2024
通过将 Super RAGs 整合到 Mistral 8x7B v1(最先进的 LLM)中,本文研究了其在准确性、速度和用户满意度方面的改进,并通过使用微调的指令模型设置和缓存调优系统确保数据检索的效率和相关性,经过多个时期的评估表明,Super RAGs 能够有效增强 LLMs,为更复杂可靠的 AI 系统探索了新的途径。
Apr, 2024
该论文介绍了一种名为 KG-RAG(知识图谱 - 检索增强生成)的框架,通过将结构化的知识图谱与 LLMs 的功能集成,显著减少对 LLMs 潜在知识的依赖,从而提高 LLM 的知识能力。通过使用一种名为 CoE(Chain of Explorations)的算法,利用 LLMs 的推理能力在知识图谱中顺序地探索节点和关系,该方法较之前取得了显著减少虚构内容的结果,为发展处理知识密集型任务的智能系统提供了有希望的路径。
May, 2024
该论文介绍了 RAG-RLRC-LaySum 框架,通过先进的自然语言处理技术,使复杂的生物医学研究能够被非专业人士理解。我们的 RAG 解决方案借助重新排序方法利用多个知识源来确保准确性和相关性,同时我们的 RLRC 策略通过提高可读性使科学内容易于理解。在使用公开可访问的 PLOS 和 eLife 数据集进行评估时,我们的方法超过了 Plain Gemini 模型,读者易读性得分提高了 20%,ROUGE-2 相关性得分提高了 15%,事实准确性提高了 10%。RAG-RLRC-LaySum 框架能够有效地推广科学知识,促进公众对生物医学发现的参与。
May, 2024
检视了检索增强型大型语言模型(RA-LLMs)的现有研究,涵盖体系结构、训练策略和应用三个主要技术视角,并介绍了此类模型的基础知识和最新进展,以及它们为大型语言模型(LLMs)带来的实际意义和应用领域的挑战和能力,最后讨论了当前的局限性和未来研究的几个有前途的方向。
May, 2024