元启发式优化的检索增强生成
该研究研究了面向知识密集型任务的检索增强式生成模型的多任务训练。通过利用知识密集型生成的独特属性:查询-答案对与知识库中项目的联系,我们提出了一种清理训练集的方法。使用关联性标签的置信度阈值过滤训练样本,以确定是否可以通过知识库回答一对查询-答案。我们在KILT基准测试的七个组合任务上对单个FiD生成器进行训练。实验结果表明,我们简单而有效的方法大大改进了两个强烈不平衡的任务上的竞争基线,并在其余任务上显示出较小的改进或无显着退步。此外,我们表明,与增加的模型容量一样,我们的关联标签采样的多任务训练能够良好地缩放,并在KILT任务的五项中取得了最佳结果。
Jul, 2022
我们提出了一种迭代检索-生成的协作框架,该框架可以利用参数化和非参数化知识,帮助找到正确的推理路径,并显著提高大型语言模型的推理能力。实验结果显示我们的方法优于之前的基线模型,在单跳和多跳问答任务上取得了显著的改进。
Oct, 2023
本文提出了一种新的增强型RAG框架R^2AG,通过将检索信息整合到检索增强型生成模型中,从而填补了大语言模型(LLMs)和检索器之间的语义鸿沟。
Jun, 2024
多跳问题回答 (MHQA) 任务对于大型语言模型 (LLMs) 来说是一项重大挑战。我们提出了一个新颖的生成然后固定 (GenGround) 框架,结合LLMs的参数化知识和外部文档,以解决多跳问题。通过在检索的文档中确认问题 - 答案对,我们的方法在四个数据集上展示了其优越性。
Jun, 2024
通过研究现有的 RAG 方法及其潜在组合,我们提出了几种既能兼顾性能又能提高效率的 RAG 策略,并证明多模态检索技术能显著增强对视觉输入的问答能力,并使用“检索即生成”策略加速多模态内容的生成。
Jul, 2024
通过预测多跳问题的分解来选择段落的全新方法“GenSco”,提高了大型语言模型在多跳问答中的答案生成能力,并在已有数据集上实现了较好的性能提升。
Jul, 2024
本研究解决了现有多跳问答系统在信息陈旧、上下文窗口长度限制以及准确性与数量之间的权衡等问题。提出的 HiRAG 框架结合了五个关键模块,并引入了新的层次检索策略,显著提高了问答系统的性能,实验结果显示其在多个数据集上优于现有先进模型,潜在影响深远。
Aug, 2024
本研究针对检索增强生成方法中常忽视的外部知识库内容质量问题,提出了一种新的端到端模型E2E-AFG,该模型将答案存在性判断和文本生成整合到一个框架中。这一新颖的设计使得模型能够更加有效地关注相关内容,减少无关信息的影响,从而生成更准确的答案。实验结果表明,E2E-AFG在六个知识密集型语言数据集的评估中,在所有任务上均优于基线模型,显示出该方法的有效性和鲁棒性。
Nov, 2024
本研究解决了检索增强生成中,大语言模型受文档检索顺序影响的问题,并通过深入分析填补了这一领域的空白。我们提出似然性作为语言模型性能的有效评估工具,通过实验证明了问题的似然性与回答准确性之间的相关性,并提出两种利用问题似然性优化提示选择与构建的方法,显著提升了生成效果。
Nov, 2024