利用 “理想检索” 方法研究检索增强语言模型,评估检索增强对语言模型行为的影响,观察到这些模型在权重保存方面具有更少的世界知识,在理解局部上下文和词间依赖方面表现更好,但在理解全局上下文方面表现更差。
Apr, 2024
使用 Reverse Image Retrieval(RIR)辅助生成的简单而有效的策略,对于 GPT-4 系列等最先进的多模态大型语言模型(MLLM)来说,RIR 显著提高了知识密集型的视觉问答性能,通过开放式 VQA 评估指标,GPT-4V 提高 37-43%,GPT-4 Turbo 提高 25-27%,GPT-4o 提高 18-20%。
May, 2024
本文提出一种在已有的 ASR 模型中添加检索语言模型,以直接从外部文本语料库中检索可能的完成语来改善模型性能,并使用适配器将这些完成语集成到后续的预测中,避免了重新训练的计算开销。该模型在问答数据集和特定领域命名实体识别等任务上表现均优于现有的浅层融合方法。
Mar, 2023
检索增强通过知识检索器和外部语料库提高下游模型的性能,成功应用于许多自然语言处理(NLP)任务,然而,现有的方法由于两个部分之间的不可微性而分别或异步训练检索器和下游模型,通常导致性能下降,与端到端联合训练相比。
Aug, 2023
本文介绍了一种名为 ChatLR 的新型检索增强框架,主要利用大型语言模型(LLMs)的强大语义理解能力作为检索器,以实现精确和简洁的信息检索。通过在金融领域微调 LLM 并构建基于 LLM 的搜索和问答系统,实验证明 ChatLR 在解决用户查询中表现出高达 98.8%的信息检索准确性。
使用 NLP 和多模式学习,该论文介绍了如何通过搜索引擎检索来增强预训练模型,从而在测试时从互联网中检索到有用的数据,并更新模型以解决模型的不确定性,取得了零样本性能的显著改进。
Nov, 2023
利用大型预训练语言模型作为综合数据生成器,对于信息检索任务的未监督数据的微调,可以使检索器在零样本学习和有监督学习的任务中获得更好的表现
Feb, 2022
以通用的文本检索插件为基础,通过增强适应性的文本检索器 (AAR),为各种语言模型 (large target LMs ranging from 250M Flan-T5 to 175B InstructGPT) 提供外部知识,从而显着提高零样本推理的泛化能力。
May, 2023
信息检索系统和大型语言模型的融合,包括关键方面,如查询重写、检索、重新排序和阅读器,在这一快速发展的研究领域中提供全面的概述和深入的见解。
本研究使用商业网络搜索引擎和 Wikipedia 检索高质量信息,探究如何增强基于 T5 的重新排名器,并以实证方式展示如何显着改进 T5 基准下的重新排名器在域内和跨领域重新排名任务中的有效性。
Oct, 2022