采用检索增强式思维过程(Retrieval-Augmented Thought Process)解决大型语言模型(Large Language Models)在隐私、幻觉和长上下文处理方面的挑战,从而在处理私人数据的问答任务中实现了与现有上下文检索增强语言模型相比 50% 的提升。
Feb, 2024
本文提出了一种名为 'rethinking with retrieval' (RR) 的后置处理方法,借助 'chain-of-thought' (CoT) 提示中的分解推理步骤检索相关的外部知识,从而改善大语言模型在常识推理、时间推理和表格推理等方面的性能。
Dec, 2022
提出了 IRCoT 方法,在多步 QA 过程中使用检索和 CoT 交替进行,同时使用检索的结果来改善 CoT。在 HotpotQA、2WikiMultihopQA、MuSiQue 和 IIRC 四个数据集上,使用 IRCoT 方法取得了显著的检索和 QA 性能改进,即便是在小型模型 T5-Flan-large(0.7B)上也能奏效。
通过引入检索增强思维树(RATT),结合事实知识和策略可行性,以提高大型语言模型(LLMs)的逻辑推理和决策效率。经过各种任务的广泛实验验证,RATT 在事实正确性和逻辑连贯性方面明显优于现有方法。
Jun, 2024
MetaRAG 通过将检索增强生成过程与元认知相结合,使模型能够监控、评估和规划其响应策略,提升其内省性推理能力,从而显著优于现有方法。
在提供足够解释性上下文的情况下,较小的语言模型在挑战性的问答任务中表现出强大的推理能力,而问题在训练中是未见过的。我们评估了两种进一步改进这一设置的方法,具体为使用理由排名模型对生成的合理和真实合理性进行评分并使用得分来从知识源中生成组合上下文,以及通过训练较小的推理模型来利用长文本序列中的相关信息。普遍发现,两种方法都有效,但 RATD 方法更容易应用并在我们关注的未见设置中产生最佳结果。
Aug, 2023
通过检索式转换器建立内部和跨样本特征交互,用于点击率预测,提高预测效果并保持高效性。
Apr, 2024
通过动态上下文编辑的方式,我们引入了一种新的方法,将信息检索重新设想,使长文本上下文成为可塑的外部知识,并通过与最新的知识编辑技术相结合,与有关信息进行交互式收集和整合,从而使大型语言模型能够进行复杂的推理步骤,有效增强了推理能力。
利用大语言模型(LLMs)在检索增强的上下文学习中的层次图思路(HGOT),该框架通过将复杂查询细分为可管理的子查询,并使用最近提出的引文召回和精度指标来评估思想的质量,从而增强了 LLMs 的真实性。
本研究提出一种名为 Iter-RetGen 的方法,通过检索和生成的迭代协同作用,以全面地处理检索到的知识并在不受结构约束的情况下实现灵活的生成,而这可以在多跳问答、事实验证和常识推理等任务中实现可比甚至优于现有检索辅助基准的效果,同时减少检索和生成的开销,从而提高了性能。
May, 2023