- ACLMrRank:通过多结果排名模型提升问答检索系统
使用学习排序技术结合不同的信息检索系统,解决大型语言模型中幻觉和过时信息的问题,提高检索问题回答任务的性能,并在 SQuAD 数据集上取得了最先进的结果。
- 信息检索中的偏见和不公平问题统一化:对大型语言模型的挑战与机遇的调查
该研究论文综述了大型语言模型 (LLMs) 在信息检索系统中引起的偏见和不公平性问题,以及相关的缓解策略,主要聚焦于数据收集、模型开发和结果评估三个关键阶段,并提出了未来研究中可能面临的问题和挑战。
- USimAgent: 用于模拟搜索用户的大型语言模型
使用大型语言模型构建的用户搜索行为模拟器在查询生成方面优于现有方法,并在预测用户点击和停止行为方面可与传统方法媲美。这些结果不仅验证了使用大型语言模型进行用户模拟的有效性,还为更强大和通用的用户模拟器的开发提供了启示。
- ACL使用大型语言模型进行语料导向的查询扩展
运用大语言模型生成的查询扩展可以显著增强信息检索系统,但由于模型的知识有限,导致扩展与检索语料库之间存在错位、产生幻觉和过时信息等问题。为了解决这些挑战,本文提出了基于语料库导向的查询扩展方法,利用大语言模型的相关性评估能力系统地识别初始检 - 利用检索增强生成(RAG)揭示知识缺口
利用检索增强生成(RAG)模型揭示互联网上的知识空白的方法论,并通过模拟用户搜索行为,RAG 系统识别和解决信息检索系统中的空白。该研究展示了 RAG 系统在生成相关建议方面的有效性,准确率达到 93%。该方法可以应用于科学发现、教育增强、 - RaLLe: 发展和评估检索增强的大型语言模型的框架
R-LLMs improve factual question-answering by combining pre-trained large language models with retrieval systems; RaLLe i - 大型语言模型在信息检索中的应用:综述
信息检索系统和大型语言模型的融合,包括关键方面,如查询重写、检索、重新排序和阅读器,在这一快速发展的研究领域中提供全面的概述和深入的见解。
- 测试向量模型加权技术的不同对数基数
本文通过采用范围为 0.1 至 100.0 的对数底数测试权重技术,测试不同权重值下系统的性能,以此突出了解系统在不同权重值下的性能的重要性。
- SIGIR检测社会偏见的内容:BERT 排名器的度量框架与对抗性缓解
本研究提出了一种新的框架来度量排名模型中检索文本内容的公平性,并使用针对信息检索的对抗性公平性缓解方法提出了一种排名模型 (AdvBert),该模型联合学习以预测相关性并删除受保护特征,为信息检索中存在的偏见问题提供了有效的解决方案。实验结 - ACLCOIL: 重新审视基于上下文反向列表的信息检索中的精确词汇匹配
本文介绍了 COIL,一种基于上下文的精确匹配检索架构,利用上下文表示来评分,以实现语义的词汇匹配。 COIL 在实验结果中表现优于经典的词汇检索器和最先进的深度 LM 检索器,具有相似或更小的延迟。
- ACLCORD-19:COVID-19 开放研究数据集
该研究介绍了 COVID-19 开放研究数据集(CORD-19)的构建、使用和相关挑战,旨在帮助计算机界、医学专家和政策制定者共同探索 COVID-19 的有效治疗和管理政策。
- ANTIQUE: 非事实型问题回答基准
本文介绍了从雅虎问答社区收集的 2,626 个开放域非事实类问题以及 34,011 个评分注释的 ANTIQUE 数据集,旨在为进一步的研究提供基础,并在经典和最近开发的神经信息检索模型上提供基准结果。
- EMNLP在开放领域问答中对段落进行排名以提高答案召回率
本文讲述了一种称为段落排名器的方法,它提高了开放域 QA 管道的性能,通过排名检索文档的段落以获取更高的答案回忆率和更少的噪声。在四个开放域 QA 数据集上,使用段落排名器排名段落和聚合答案相比未使用该方法,性能平均提高了 7.8%,也展示 - 基于排名的损失函数的高效优化
提出了一种新的 quicksort-flavored 算法,可以在大量训练数据集上优化非可分离损失函数。已证明,该方法适用于包括 AP 和 NDCG 基础上的损失函数,并且对于我们的方法渐近计算复杂度不能提高。我们展示了该方法在优化结构化铰