该研究论文主要讨论了信息检索中的排名模型如何应用传统启发式方法、概率方法和现代机器学习技术等技术构建,并重点介绍了基于浅层或深层神经网络的神经排名模型,分析了其基本原理和学习策略,并通过基准测试比较了这些模型,最后探讨了当前文献中存在的问题以及未来的发展方向。
Mar, 2019
本研究总结了当前神经信息检索研究的情况,特别关注了问题和文档的学习性表示(即神经嵌入),强调了神经信息检索目前的成功之处,列出了其更广泛采用的障碍,并建议未来研究的潜在方向。
Nov, 2016
本研究论文旨在向初学者和有经验的研究人员介绍当前 IR 问题的深度学习中的神经方法,并涵盖了关键架构和最有前途的未来方向。
Jul, 2017
在这篇论文中,我们探索了一种低资源替代方法,即基于词嵌入的文档检索模型,发现它在与信息检索任务上经过微调的大型 Transformer 模型相比具有竞争力。我们的结果表明,将 TF-IDF(传统的关键词匹配方法)与浅层嵌入模型简单组合,提供了一种低成本的方法,使其在 3 个数据集上与复杂的神经排序模型的性能相媲美。此外,添加 TF-IDF 度量改进了这些任务上大规模微调模型的性能。
Aug, 2023
本文介绍了一种利用图嵌入技术使神经信息检索模型可以利用图结构数据进行自动特征提取的方法,并将其应用于电子商务数据集中,结果显示该方法在多个强基线模型和排序框架中都有显著提高。
Jan, 2019
本文对深度信息检索模型进行了深入研究,通过对两个不同数据集的实证研究,比较了自动学习特征和手工特征的查询词覆盖率、文档长度、嵌入和鲁棒性等方面的差异,并建立了改进现有深度 IR 模型的指南。同时,我们比较了表示重点模型和交互重点模型这两个不同类别的深度 IR 模型,发现两种类型的深度 IR 模型侧重于不同类别的词汇,包括主题相关词汇和查询相关词汇。
信息检索系统和大型语言模型的融合,包括关键方面,如查询重写、检索、重新排序和阅读器,在这一快速发展的研究领域中提供全面的概述和深入的见解。
本篇论文提出三个方面的方法,包括新的模型架构、IR 导向的预训练任务、生成大规模训练数据,以解决神经检索器面临的问题,并探讨了多模式查询的未来研究方向和相应的解决方法。
May, 2022
本文研究文本信息检索中常见深度神经网络结构针对不同粒度文本数量表现的影响。
Jun, 2016
本文探讨了利用上下文语境中的神经语言模型 BERT,可以提供更深入的文本信息理解,以增强预先训练的 BERT 模型以及相关的搜索任务。
May, 2019