BERT-QE: 基于上下文的查询扩展用于文档重新排名
本文提出了一种结合了有效过滤策略和基于上下文生成概率的检索文档融合的词汇匹配的方法,在减小索引大小的同时,提高了检索准确性;同时,在 end-to-end QA 模型中,该方法也能取得最高的 Exact-Match 分数。
Oct, 2022
该研究提出了一种将搜索引擎文档扩展为与其内容相关或代表性术语的简单方法,并利用基于 Vanilla 序列到序列模型的数据集对其进行扩展,结合高效的重新排序组件,实现了两种检索任务的最高效结果。
Apr, 2019
使用 RepBERT 来进行文档和查询的表示,通过上下文嵌入的固定长度实现,使用嵌入的内积作为相关性分数,在 MS MARCO Passage Ranking 任务中,RepBERT 在所有初始检索技术中实现了最新的结果。
Jun, 2020
本文提出一种名为 DC-BERT 的上下文解码框架,实现了问题回答过程中高效的文档检索,并在 SQuAD Open 和 Natural Questions Open 数据集上取得了比现有技术方法更快和准确度稍低(QA 表现保持 98%)的结果。
Feb, 2020
运用大语言模型生成的查询扩展可以显著增强信息检索系统,但由于模型的知识有限,导致扩展与检索语料库之间存在错位、产生幻觉和过时信息等问题。为了解决这些挑战,本文提出了基于语料库导向的查询扩展方法,利用大语言模型的相关性评估能力系统地识别初始检索文档中的关键句子,并将这些基于语料库的文本与大语言模型扩展的结果一起用于查询扩展,从而提高查询和目标文档之间的相关性预测。通过广泛的实验证明,该方法在没有任何训练的情况下表现出强大的性能,尤其适用于大语言模型缺乏知识的查询。
Feb, 2024
本文提出了一种利用分布式神经语言模型 word2vec 的自动查询扩展(AQE)框架,通过 K 最近邻方法获得查询相关术语,并在标准 TREC ad-hoc 数据上获得显着提高。
Jun, 2016
本研究提出了一种基于大型语言模型的互相验证框架,用于查询扩展,通过检索和生成的文件相互补充来改善查询扩展的效果,并在三个信息检索数据集上进行了大量实验证实,结果显示我们的方法明显优于其他对照组。
Oct, 2023
该论文介绍了一种基于词嵌入的 query expansion 方法,使用人工神经网络分类器来预测 query expansion 词汇的有用性,实验结果表明该方法显著提高了检索性能。
Nov, 2018
本文提出了一种新的查询扩展系统 Event-Centric Query Expansion(EQE),通过从大量的潜在事件中挖掘最佳扩展,快速准确地提高搜索质量,该系统已被部署在腾讯 QQ 浏览器搜索中,服务于数亿用户。
May, 2023