DREQ:基于实体的查询理解的文档重新排序
本文提出了一种单词实体对框架,用于利用知识库在自适应检索中,通过单词和实体的交互生成排序特征来排名文档,使用基于注意力的模型 AttR-Duet 来处理来自实体表示的不确定性,并证明了它们比基于单词或实体的系统更有效。
Jun, 2017
本文提出了实体对神经排序模型(EDRM),将知识图谱引入到神经搜索系统中,将查询和文档表示为它们的单词和实体注释,并通过基于交互式神经排名网络进行排名。我们的实验表明,EDRM 的有效性得到了证明,知识图谱语义显著提高了神经排序模型的泛化能力。
May, 2018
本文基于 Guo 等人 (2016) 的深度相关匹配模型 (DRMM),探讨了几种新的文件相关性排序模型。加入上下文有关的编码,包括多视图的查询和文档输入,测试证明新模型优于 BM25,DRMM 和 PACRR。
Sep, 2018
本文针对文档级别关系抽取中证据检索面临的内存消耗高和注释有限的问题,提出了 DREEAM 方法,其采用内存高效的方式指导 DocRE 系统将注意力集中于证据上并采用自学习策略从大量数据中自动生成证据,实验证明该方法在 DocRE 和 ER 方面取得了最先进的性能。
Feb, 2023
本文主要研究使用 Wikidata 数据构造的 entity-rich questions 在密集检索模型中表现不佳的问题,并探讨了两种解决方案:第一种解决方法是数据扩充无法解决广义化问题,第二种解决方法是更加强大的 passage encoder 有助于使用专门化的问题编码器来更好地适应问题。
Sep, 2021
通过使用深度强化学习模型,本研究提出了一个自动生成措辞的查询改写模型。在模型中结合了查询性能预测方法以产生高效的查询。并且针对信息检索的情境下,运用了信息检索排名模型训练,并在 TREC 2020 Deep Learning track MSMARCO 文献排名数据集上进行实验。结果表明,与各种基线模型相比,本研究的模型性能得到了较大提高。
Jul, 2020
使用双编码器模型,在相同的密集向量空间中对实体和提及进行编码,并通过近似最近邻搜索检索候选实体,从而实现实体链接。通过使用维基百科中的锚文本链接训练双编码器,该方法优于离散别名表和 BM25 基线,并且与标准 TACKBP-2010 数据集中最佳结果相当,还可以快速检索候选者,并可以很好地推广到从 Wikinews 推导出的新数据集。在建模方面,我们演示了无监督的负采矿算法在这一任务中的重要作用。
Sep, 2019
本文提出了一种新的长文档重新排序方法,通过利用自注意力机制和模块化 Transformer 框架建立查询到文档的交互模型,避免了编码过程中低维度表示带来的信息瓶颈,实现了从全部文档中提取重要信息的目的,并在 Robust04 和 ClueWeb09 等数据集上实现了有效的重新排序。
May, 2022
该研究旨在提高电子商务搜索系统的相关性预测性能,并提出了一种名为基于实体的相关模型(EBRM)的新模型,将 QI 问题分解为多个 QE 相关问题并聚合其结果形成 QI 预测。
Jul, 2023
本文提出了一种上下文感知的神经排序模型,通过引入两级分层循环神经网络对查询、搜索任务进行搜索上下文表示的学习,并结合文档排序和查询建议两个伴随的检索任务来提高检索性能,并在循环状态的两个级别上引入注意力机制来识别搜索上下文和用户正在进行的搜索活动之间的可变依赖结构。通过丰富的实验比较以及深入的消融分析,证实我们所提出的方法对于建模搜索任务中隐藏的搜索上下文具有价值。
Jun, 2019