面向查询的会话搜索数据增强
本文通过分析TREC会话查询日志,比较不同的词汇匹配方法以用于会话查询,并研究了在会话查询设定下词汇查询模型的可行性。作者指出,基于词频加权的朴素方法和专门的会话模型具有相当的性能表现。同时,还提出了词汇查询建模在会话搜索中的潜力和限制,并为会话搜索领域提出了未来方向。
Aug, 2016
本文提出了一种基于会话的查询建议定制序列到序列模型,利用查询感知的注意机制掌握会话上下文的结构,使用复制机制赋予模型解码器存取源单词的能力,实现对于大部分之前提交查询的保留,提出了模型评估的方法以验证其性能,实验证明该模型在查询建议任务中的生成查询和评分候选查询上的优异表现。
Aug, 2017
本文提出一种基于XMR算法的查询自动完成(QAC)解决方案,可在保持推荐准确性的同时,使用基于会话的上下文,实现低于10毫秒的推荐响应速度,有效提高短前缀的MRR和建议接受率。
Dec, 2020
该研究提出一种基于课程学习框架的上下文感知文档排名方法,通过逐步调整模型,帮助模型逐渐接近全局最优解,并在两个实际查询日志数据集上取得显著的性能提升,证明了课程学习对于上下文感知的文档排名的有效性。
Aug, 2022
本文介绍一种实用而有效的检索增强方法(QUILL),它能够通过检索增强大型语言模型在查询理解方面的能力,而不会增加计算量。我们提出了一种新颖的两阶段蒸馏方法来处理检索增强的模型,证明了这种方法在公共基准测试中取得了出色的性能。
Oct, 2022
本研究提出了一种基于大型语言模型的互相验证框架,用于查询扩展,通过检索和生成的文件相互补充来改善查询扩展的效果,并在三个信息检索数据集上进行了大量实验证实,结果显示我们的方法明显优于其他对照组。
Oct, 2023
通过与用户与搜索引擎的交互历史相关的上下文,我们提出了一种新颖且通用的方法,用于个性化输出,这对于理解用户当前的搜索背景以及他们历史上知道和关心的内容是必要的。我们验证了我们的方法在上下文查询建议的任务上优于几个其他LLM基准方法,生成了在上下文中更相关、个性化和有用的查询建议。
Nov, 2023
本研究旨在解决传统相关性建模方法在判断查询与项目相关性方面存在的不足。通过引入用户交互数据并提出渐进式检索行为增强提示(ProRBP)框架,有效集成领域知识与大语言模型,从而精准捕捉动态搜索意图。实验结果表明,该方法在实际应用中具有显著的性能提升潜力。
Aug, 2024