生成式密集检索:内存可能成为负担
生成检索是使用序列到序列架构,以端到端的方式为给定查询生成相关文档标识符的方法。本文通过研究生成检索的注意力层和预测头,揭示了生成检索与多向量稠密检索在测量文档对查询的相关性时采用相同的框架,并通过实验证明了这些方法在对齐矩阵中的术语匹配上具有相似性。
Mar, 2024
通过综述 Generative Retrieval(GR)的关键发展、索引和检索策略和挑战,讨论了具有挑战性的生成查询质量、可学习文档标识符、可扩展性和多任务学习框架等未来研究方向,旨在为 GR 提供基础理解并激发信息检索领域的进一步创新。
Jun, 2024
信息检索一直是信息检索研究的重点之一。近年来,提出了 Dense Retrieval(DR)技术来缓解诸如词汇不匹配问题等固有缺陷,但是绝大多数现有 DR 模型的培训都依赖于从语料库中抽样负实例来优化成对损失函数,即不公平的样本,因此提出了 Learning To Retrieve(LTRe)培训技术, 它通过预先构建文档索引,并在每个培训迭代中在没有负样本采样的情况下执行全检索,从而在整个语料库中检索相关文档,实验表明,LTRe 在有效性方面明显优于所有有竞争力的稀疏和密集基线。它甚至在合理的延迟限制下比 BM25-BERT 级联系统表现更好。
Oct, 2020
通过蒸馏技术,提出了一种名为 DGR 的可行框架,利用排名模型作为教师角色,通过专门设计的蒸馏 RankNet loss 来优化生成式检索模型,从而提升了当前生成式检索系统的性能。
Feb, 2024
提出一种名为 Disentangled Dense Retrieval(DDR)的新型 Dense Retrieval 框架来支持 DR 模型的有效和灵活的领域自适应,该框架包括一个 Relevance Estimation Module(REM)和几个 Domain Adaption Modules(DAMs),通过使 REM 和 DAMs 分离,DDR 实现了一种灵活的训练范式,在不同的领域和语言中都表现出比强大的 DR 基线更好的排名性能。
Aug, 2022
提出了一种高效的基于大型语言模型的检索调谐器 (LMORT),通过将检索和生成任务从共享的大型语言模型中分离出来,将检索容量与基础语言模型分开,并以非侵入性的方式协调语言模型的统一检索空间,实现了高效和有效的检索,同时保持了生成能力。在六个 BEIR 数据集上的广泛实验表明,我们的方法在保持语言模型生成能力的同时,可以达到与一些强大的密集检索模型相媲美的零样本检索性能。
Mar, 2024
本文中介绍了 Deep Retrieval (DR) 算法,通过学习可检索结构来获取最优推荐结果,其编码所有候选项入离散潜在空间,接着使用当前模型下的光束搜索来检索前置候选项,以实现重新排名。实验证明,使用 DR 算法,在两个公共数据集上能够实现近乎于暴力基线的准确性,并且在实时生产推荐系统上,高度优化的 DR 算法显著优于 ANN 基准线。DR 是非 ANN 的推荐算法在工业推荐系统规模的首批成功部署之一。
Jul, 2020
本研究介绍了一个名为 STREAMINGIR 的新基准,用于评估检索方法对于动态变化语料库(如实时问答)的泛化能力,并比较了双编码器和生成式检索的性能和效率。结果表明,生成式检索在不同程度的监督下表现出不同的性能,但是参数高效的措施可以在某些方面提高其性能并与双编码器的性能和效率具有竞争力。
May, 2023
本论文提出具有一套标准的框架来比较两种检索系统,该框架以除了简单效果措施之外的标准来衡量,旨在评估一个系统取代另一个系统的准备情况。在 Web 排名方案中,最先进的 DR 模型不仅在平均性能方面表现出色,而且通过广泛的保护装置测试,在不同的查询特征,词汇匹配,一般化和回归数量方面展现了稳健性。
Jun, 2022
本文探讨了基于预训练语言模型的致密检索方法,并提供了在低资源情境下实现致密检索的主流技术概览,根据技术需要的资源将其分为文档、文档和问题,以及文档和问题答案对三个类别,并对每个技术的算法、开放问题和优缺点进行了介绍和总结,最后提出了未来研究的方向。
Aug, 2022