- 自适应查询重写:通过会话答案的边际概率对齐重写器
AdaQR 是一个框架,用于训练具有有限重写注释和完全没有段落标签的查询重写模型,通过从种子数据集中只使用~10% 的重写注释进行微调精简大型语言模型,然后利用这些模型为每个查询实例生成重写候选,并通过条件概率对这些候选进行检索者权重评估, - CHIQ:上下文历史增强对话式搜索中查询重写的提升
研究论文通过利用开源大规模语言模型(LLMs),在改进会话搜索中,特别是对于歧义查询的查询重写方面,研究了如何有效地部署。通过引入 CHIQ,一个利用 LLMs 在查询重写之前解决会话历史中歧义的两步方法。与先前的研究不同,该方法主要使用闭 - RaFe:排名反馈改善了 RAG 的查询重写
利用强化学习和公开可用的 reranker 训练的无需注释的查询重写模型,在提升性能方面优于传统方法。
- 估计明确问题和回答对于对话式搜索的有用性
我们提出了一个简单而有效的方法来处理对澄清问题的回答,并介绍了一个对用户提出的问题和回答进行有用性评估的分类器,将有用的问题或回答附加到对话历史中,并传递给基于 transformer 的查询重写模块,实验证明与非混合主动的基线相比有显著改 - 基于大型语言模型的文本到 SQL、文本到 Python 和文本到函数的重新增强 —— 在交通领域中的真实应用
我们提出了一种更适应性更强的提示方法,通过查询重写和 SQL 增强来提高 Text-to-SQL 模型的性能,并在商业数据集上实验证明了显著的性能改善。
- 一个用例:将查询重写重新定义为统计机器翻译问题
该论文提出了一个基于单语机器翻译模型的查询重写流程,用于学习重写阿拉伯用户搜索查询,并描述了创建用户查询和网页标题之间映射的预处理步骤。
- EMNLP加强对话式搜索:大型语言模型辅助的信息性查询改写
通过利用大型语言模型作为查询重写器,并结合精心设计的指令,我们定义了四个重写的关键属性,提出了基于大型语言模型的查询重写方法。我们还介绍了 LLMs 的重写能力的提炼,并采用 “先重写后编辑” 的方法来处理初始查询重写。实验结果在 QReC - 基于 LLM 的上下文感知查询重写文本排名器
采用上下文感知查询重写的方法,通过使用大语言模型进行查询理解并对排序器进行微调,能够显著提高查询重写对排名任务的性能。
- 带或存在规则和映射查询重写
本文研究了使用拼接查询组成的联合响应(UCQs)答案问题,有 “或型存在规则和映射”。本文首先提出了一个完整的查询重写操作符,并使用广度优先查询重写算法来输出最小的 UCQ 重写副本。其次,我们证明,在任何真正的 “分离” 递归规则中,存在 - 基于知识图谱的实体纠错及查询重写系统
本文提出了 KG-ECO 系统,它利用知识图谱增强了实体纠正并且在对话系统中的表现优于两种基线方法。此系统特别适用于目标实体在训练集中很少出现或与查询中的其他上下文实体存在知识图谱关系的少样本学习案例。
- EMNLPCONQRR:基于强化学习的检索型对话查询重写
CONQRR 使用强化学习训练了一个新的查询重写模型,使得原本用于非对话查询的信息检索引擎能够在对话的语境下得到有效的应用,并在最近的 CQA 数据集中实现了最新的成果,同时对于领域外的对话和零查询重写监督具有可靠性。
- IJCAI对 DL-Lite 知识库中的计数查询答案的扩展版
本文探讨了在具有背景领域知识的数据库 Knowledge Base 中对查询答案进行计数的数据复杂度,并提供了一种基于 DL-Lite 族成员的本体引介式查询答案 / 本体基础的数据访问语言来实现此目标。作者提出了一种具有重要意义的查询重写 - IJCAIRDF 三元组存储架构中的规则适用性
本文提出了一种基于查询重写的三元组存储架构,能够高效地应用规则和确定其在数据集上的适用性,从而生成输出 schema,该方法能够优于传统的计算规范实例的方法。
- 利用背景知识进行查询重写回答科学考试问题
本文针对 ARCChallenge 数据集的超越式难题提出了一种系统,该系统利用查询重写、背景知识和文本属于性,成功地提高了端到端 QA 任务的性能,并超越了几个强基线。
- 本体查询:重写与优化 (扩展版)
本文研究了本体查询中的查询重写和查询优化问题,其中查询重写包括将本体查询编译为与底层关系型数据库等效的查询,查询优化旨在改善此过程以生成成本效益高的 UCQ 重写,提出了一种有效的新方法以支持基于线性 Datalog+/- 的规则。
- Simrank++:通过点击图链接分析进行查询重写
以历史点击图为基础,研究问题是赞助搜索的查询重写。提供两种改进版本的 Simrank,以更好地识别查询相似性,并在 Yahoo!查询和实际点击图上使用各种指标进行实验评估。结果表明,增强的方法可以产生更多和更好的查询重写。