Dec, 2023
构建更好的基于大型语言模型的稠密检索模型
Making Large Language Models A Better Foundation For Dense Retrieval
TL;DR提出了一种新颖的方法LLaRA(LLM适应于密集检索),它作为LLM的事后适应工具,用于密集检索应用。LLaRA包括两个预处理任务:EBAE (基于嵌入的自编码)和EBAR (基于嵌入的自回归),其中来自LLM的文本嵌入用于重建输入句子的标记并预测下一句的标记。LLaRA简单、轻量且高效,应用于LLMaMA-2-7B(基础)模型,在维基百科语料库上大大提升了模型对各种密集检索基准(如MSMARCO和BEIR)的微调性能。