基于摘要描述的文本检索
信息检索中的全面检索方法被应用于大型语言模型的前提学习中,这些检索方法早期用于经典应用,但近期多用于异构且严格的应用,需要改进小K值的检索。我们提出了一种改进的密集检索方法,通过学习预训练嵌入的低秩残差适应来实现任务特定、异构且严格的检索,并在实验证明我们的方法相比于基于通用嵌入的基线有所改进。
Oct, 2023
通过自定义 Search-Adaptor 方法,我们可以提高预训练大型语言模型在信息检索和搜索领域的性能,有效且稳健地修改原始文本嵌入向量,与任何语言模型集成,并在多个实际英语和多语种检索数据集上取得一致且显著的性能提升。
Oct, 2023
提出了一种新颖的方法LLaRA(LLM适应于密集检索),它作为LLM的事后适应工具,用于密集检索应用。LLaRA包括两个预处理任务:EBAE (基于嵌入的自编码)和EBAR (基于嵌入的自回归),其中来自LLM的文本嵌入用于重建输入句子的标记并预测下一句的标记。LLaRA简单、轻量且高效,应用于LLMaMA-2-7B(基础)模型,在维基百科语料库上大大提升了模型对各种密集检索基准(如MSMARCO和BEIR)的微调性能。
Dec, 2023
该研究论文介绍了一种基于模型无关的文档级嵌入框架,通过大型语言模型(LLM)增强,改进了检索模型训练过程中的一些重要组件,如负采样、损失函数等。通过实现这个LLM增强的检索框架,我们显著提高了广泛使用的检索模型(如Bi-encoders和late-interaction models)的效果,并在LoTTE数据集和BEIR数据集上取得了最新的研究成果。
Apr, 2024
通过引入各种架构设计和训练过程,NV-Embed模型显著提高了LLM作为多功能嵌入模型的性能,同时保持其简单性和可重现性,并取得了69.32的记录高分,在包括检索、重排序、分类、聚类和语义文本相似性任务在内的56个任务中名列第一。
May, 2024
本文研究如何在计算优化的情况下对文本嵌入模型进行对比训练,通过使用一系列预训练的只有解码器的语言模型来产生最佳的模型配置、数据量和微调方法,从而适应不同的计算预算级别。我们通过广泛的实验得到了这些结论,可以帮助从业者为他们的嵌入模型做出明智的设计选择。具体而言,我们的发现表明,完全微调和低秩适应微调分别在较低和较高的计算预算下产生最佳模型。
Jun, 2024
本研究解决了传统检索模型在领域准确性和推广能力方面的不足,通过对多种检索任务的全面实证研究,评估了大型语言模型(LLMs)的性能。研究发现,较大的模型和广泛的预训练能够持续提升领域准确性和数据有效性,并在零样本推广和多任务学习等方面展现出显著潜力,这为未来相关领域的研究与开发提供了重要见解。
Aug, 2024
本研究针对传统检索模型在特定领域的准确性和泛化能力不足的问题,采用大型语言模型(LLMs)进行评估,探讨其在密集检索中的独特优势。研究结果表明,较大的模型和更长的预训练时间能够显著提高领域内准确性和数据效率,同时在零样本泛化、长检索等多任务学习中具有重要潜力,这为未来的研究和开发提供了有价值的见解。
Aug, 2024