检索重构:大规模语言模型推理
本研究通过关键字检索对多种大型语言模型进行评估,发现这些模型在科学文档推理任务中会使用编造的证据来支持预测,利用科学语料库进行预训练无法减轻证据捏造的风险。
Nov, 2023
通过对 LLMs 的选择性整合外部知识,介绍了一种基于多个 LLM 之间交互协助的外部推理新方法 (ChatPDF),在人类反馈的响应下,根据查询的复杂性调整支持水平,经过全面评估后取得了最先进的性能,并且相比 LLMs 直接处理全文,这种方法更加高效。
Jul, 2023
提出了 IRCoT 方法,在多步 QA 过程中使用检索和 CoT 交替进行,同时使用检索的结果来改善 CoT。在 HotpotQA、2WikiMultihopQA、MuSiQue 和 IIRC 四个数据集上,使用 IRCoT 方法取得了显著的检索和 QA 性能改进,即便是在小型模型 T5-Flan-large(0.7B)上也能奏效。
Dec, 2022
比较 fine-tuning 和 retrieval-augmented generation (RAG) 两种方法,发现 RAG 在不同主题的知识密集型任务中始终优于 fine-tuning,并且 LLMs 在 fine-tuning 中难以学习新的事实信息,通过在训练过程中暴露它们于相同事实的多个变体可以缓解这个问题。
Dec, 2023
使用来自知识图谱的规划数据,我们介绍了一种增强大型语言模型在复杂问答任务中的性能的新框架,通过使用这些数据对 LLMs 进行微调,提高其规划能力,更好地处理涉及检索的复杂 QA 任务。我们的框架在多个数据集上进行评估,包括我们提出的新基准,突出了其有效性和知识图谱派生规划数据的好处。
Jun, 2024
我们介绍了一种称为 Retrieval-based Knowledge Transfer (RetriKT) 的新型压缩模型的方法,通过从大规模预训练语言模型中提取知识,构建一个知识存储库,小规模模型可以从中检索相关信息并利用它进行有效推理,实验证明该方法显著提升了小规模模型的性能。
Oct, 2023
使用检索机制动态自动选择基于跨模态相似性的示例,以提升多模态推理中大型语言模型的性能。对各类示例进行分组并分别从不同组中检索示例,以增加示例的多样性。通过一系列实验,我们证明了我们的方法在多模态推理任务中取得了显著的性能改进。
Dec, 2023
自我指导的检索增强(SKR)是一种简单而有效的方法,可以使大型语言模型适应性地调用外部资源,通过引用其先前遇到的问题,更好地利用内部知识和外部世界知识,以提高在问题回答等任务上的性能。
Oct, 2023
该研究论文介绍了一种统一的语言模型,通过将生成检索、闭书生成和 RAG 有机地结合,利用外部语料库处理各种知识密集型任务。该模型通过引入不同机制实现了有效的检索和生成,并在广泛使用的 KILT 基准测试中展现了出色的性能。
Feb, 2024
该研究介绍了一个新的 Rewrite-Retrieve-Read 框架,该框架从查询重写的角度改进了检索增强方法,并通过强化学习调整该框架的策略模型,通过开放域 QA 等下游任务进行了验证。
May, 2023