稠密通道检索器的复制研究
密集路径检索(DPR)是提升大型语言模型(LLM)性能的检索增强生成(RAG)范式中的第一步,本研究通过探测、层激活分析和模型编辑的组合,深入研究 DPR fine-tuning,发现 DPR 训练方式中的去中心化存储及其对检索模型的限制,为密集检索提供了几个可能的方向:(1)将更多知识暴露给 DPR 训练过程以实现更多的去中心化,(2)将事实作为分散表示注入,(3)在检索过程中建模和融入知识的不确定性,以及(4)将内部模型知识直接映射到知识库。
Feb, 2024
本研究展示了如何使用密集向量表示实现开放领域的问答,通过一个简单的双编码框架,通过从一小部分问题和段落中学习嵌入来实现检索,并在多个开放域 QA 基准测试中超越了传统的基于 TF-IDF 或 BM25 的方法,为终端 QA 系统的最新性能奠定了基础。
Apr, 2020
Topic-DPR 是一种基于主题的密集段落检索模型,通过对多个基于主题的提示进行优化和对比学习,使表示与其主题分布对齐,提高空间均匀性,并引入了一种新的正负采样策略来提高检索效率。实验证明,该方法超过了之前最先进的检索技术。
Oct, 2023
本文提出了文档感知段落检索 (DAPR) 任务的概念,并通过在段落表示中引入文档级上下文的不同方法扩展最先进的神经段落检索器。实验结果表明,混合检索系统在 DAPR 任务中只能略微改进,但能显著改进文档检索任务,这激励着进一步研究该新任务的更好检索系统的开发。
May, 2023
本研究解决了大型语言模型 (LLMs) 中的幻觉问题。我们采用了检索增强生成 (Retrieval-Augmented Generation, RAG) 技术,通过在提示信息中嵌入相关信息来获得准确答案。然而,RAG 在检索正确信息方面也面临固有问题。为了解决这个问题,我们采用了密集路径检索 (Dense Passage Retrieval, DPR) 模型,用于获取与用户查询相关的领域专业文档。尽管如此,DPR 模型在文档检索方面仍然精度不足。我们通过引入控制符号来增强 DPR 模型,取得了显著优异的性能,Top-1 准确率提高了 13%,Top-20 准确率提高了 4%。
May, 2024
本篇论文介绍一种名为 Binary Passage Retriever (BPR) 的神经检索模型,它将学习哈希技术集成到 Dense Passage Retriever (DPR) 中,以紧凑的二进制代码表示待检索文本,从而大幅降低了内存成本,同时保证了一致的精度,这适用于开放领域的问答。
Jun, 2021
本研究针对新的神经通道检索方法加以探讨,发现在 COVID-19 的封闭和专业目标域中,SOTA 模型 Dense Passage Retriever 比标准 BM25 差距较大。通过用文本生成器来生成合成训练示例对其进行微调,使其在对外域数据处理中更具鲁棒性,效果有所提高。最终,BM25 与改进的 DPR 模型的集成产生了最佳结果,进一步推动了开放式检索 QA 的 SOTA,适用于多个出域测试集。
Apr, 2022
本文考虑如何优化基于 Transformer 的密集通道检索算法,具体方法包括在不同短语长度下使用 DPR 上下文编码器和采取置信度校准的集成预测。研究表明,该方法在 Google NQ 和 SQuAD 等标准数据集以及特定领域的数据集上,均取得了最先进的结果。
Jun, 2023
本文提出改进内部表示粒度,引入基于上下文句子的模型和 in-passage 负采样策略,以缓解不合适的建模方式对于对话的影响,在三个基准数据集上进行实验并验证方法的有效性,特别是在冲突严重的数据集中的表现。
Oct, 2021