DPR主题:用于密集段落检索的基于主题的提示
本研究对Karpukhin等人于2020年提出的基于稠密编码的全域问答模型(DPR)进行了复制研究,其中发现原作者低估了BM25基准检索的有效性。我们通过改进的答案跨度评分技术,使用与原论文相同的模型获得更好的端到端问题答案准确性。
Apr, 2021
本文提出了coCondenser方法,将Condenser预训练架构与无监督语料级对比损失相结合,减轻了密集检索器对大规模训练数据和数据工程的依赖,并通过实验表明,该方法具有与RocketQA相当的性能。
Aug, 2021
通过研究密集短语检索系统,探讨短语检索是否可以作为粗粒度检索(如段落和文档)的基础,并提出了短语过滤和矢量量化等方法,可以将检索索引的大小减小至原来的 4-10 倍,从而使得密集短语检索成为多粒度检索的实用解决方案。
Sep, 2021
本文提出改进内部表示粒度,引入基于上下文句子的模型和 in-passage 负采样策略,以缓解不合适的建模方式对于对话的影响,在三个基准数据集上进行实验并验证方法的有效性,特别是在冲突严重的数据集中的表现。
Oct, 2021
本篇论文旨在研究在密集检索中,如何利用深度提示调整来减少部署成本,提出了两种与预训练语言模型和密集检索任务兼容的方法,并在MS-MARCO和自然问题数据集上取得了优于之前最先进模型的效果。
Aug, 2022
本文提出了基于大语言模型的Few-shot Dense Retrieval任务中Prompt-based Query Generation for Retriever (Promptagator)方法,利用少量任务单独的知识生成具有任务特定的检索器并使用LLM促进扩展性,与传统基于自然问题或MS MARCO的训练方式相比,使用8个或更少的样本提示LLM生成的双编码器可以显著提高检索性能达1.2个nDCG以上。
Sep, 2022
本研究探讨了如何通过有效验证缩小训练与检索之间的差距并提高稠密检索的性能,在密集短语检索中取得了2~3个关键短语检索准确度和2~4个段落检索准确度的提升。
Oct, 2022
本论文提出了软提示调整强化密集检索的SPTAR模型,并可利用少量的真实数据优化特定的软提示。在实验中,SPTAR在密集检索任务中获得了比BM25和基于LLMs的增强方法更优秀的结果。
Jul, 2023
信息检索中的全面检索方法被应用于大型语言模型的前提学习中,这些检索方法早期用于经典应用,但近期多用于异构且严格的应用,需要改进小K值的检索。我们提出了一种改进的密集检索方法,通过学习预训练嵌入的低秩残差适应来实现任务特定、异构且严格的检索,并在实验证明我们的方法相比于基于通用嵌入的基线有所改进。
Oct, 2023
密集路径检索(DPR)是提升大型语言模型(LLM)性能的检索增强生成(RAG)范式中的第一步,本研究通过探测、层激活分析和模型编辑的组合,深入研究DPR fine-tuning,发现DPR训练方式中的去中心化存储及其对检索模型的限制,为密集检索提供了几个可能的方向:(1)将更多知识暴露给DPR训练过程以实现更多的去中心化,(2)将事实作为分散表示注入,(3)在检索过程中建模和融入知识的不确定性,以及(4)将内部模型知识直接映射到知识库。
Feb, 2024