- SPLADE-v3: SPLADE 的新基准
SPLADE-v3 的最新版本引入了训练结构的变化,并呈现了一系列最新的模型。通过对超过 40 个查询集的元分析,与 BM25、SPLADE++ 以及重排序模型进行比较,展示了其有效性。 SPLADE-v3 进一步推动了 SPLADE 模型 - 序列重要性:构建对话代理的生成 - 检索 - 生成模型
TREC iKAT 2023 挑战中,本文使用 Generate-Retrieve-Generate 方法,利用大型语言模型(LLMs)进行答案生成与理解,通过 BM25 进行答案连贯性过滤,实现更高的性能表现。
- 学术法律文章的引文推荐
引用推荐是根据给定的文本寻找合适引用的任务,该研究通过收集第一个学术法律数据集,对现有模型进行了实验和性能比较。研究结果表明,对于法律引用推荐任务,BM25 是一个强大的基准方法,而最有效的方法是使用 BM25 + 进行预提取,然后使用 S - ACLU-CREAT: 无监督事件提取的无人干预案例检索
本文提出了一个新的国际优化的先前案例检索方法 (IL-PCR),通过构建一种基于事件提取的无监督检索方法(U-CREAT), 与 BM25 相比,结果显示 U-CREAT 显著提高了检索性能,并使检索速度显着更快
- 基于表面的检索降低检索增强语言模型的困惑度
本文通过重新构建语义检索机制以 surface-level 方法代替 BM25 方法,成功降低语言模型 perplexity 并提高性能。
- 基于学习的端到端 BM25 查询扩充
通过学习增强和重新加权来改进 BM25 作为信息检索基线的性能,并发现在保留速度的同时改进了其性能。此外,还发现学习到的增强和重新加权可很好地传递到未见过的数据集。
- HYRR: 棱柱式混合再排序用于段落检索
本文提出了一种基于 BM25 和神经检索模型的混合模型的 HYRR 框架,用于训练 reranker,并使用交叉注意力神经模型来建立一个稳健的重排模型。在 MS MARCO 和 BEIR 数据集上的实验结果表明,该模型在监督式和零样本检索任 - 优于空格:无自定义分词器语言的信息检索
本研究提出对于不同语言的信息检索及词法匹配的算法 (BM25 等) 使用 WordPiece 分词器的方法,通过对来自不同语言的数据进行实验,证明该方法能够在多数情况下优于白空格分词器,并能更进一步提高自定义分词器的效果。
- SIGIR复杂 NLP 在文本排名中的作用
研究发现,通过改变输入的顺序和位置信息,掩码语言模型的性能并不会受到影响;相比于句法方面,跨句子关注和更丰富的嵌入捕捉上下文的词义是 BERT 的优势所在。
- 基于分层注意力文本编码器和 SciBERT 的本地引文推荐重新排序
通过使用最近邻搜索和层次化注意网络构建文本嵌入来预测相关的引用文献,并使用 SciBERT reranker 在本地引文推荐任务中进行微调,我们的 reranker 需要更少的预取候选项即可达到最先进的性能。
- EMNLPCOUGH: 用于 COVID-19 常见问题解答检索的挑战数据集和模型
介绍了一个具有挑战性的大型 COVID-19 FAQ 检索数据集 COUGH,包括 FAQ Bank、Query Bank 和 Relevance Set,其中最佳模型在 P@5 下达到了 48.8,激励了更多的研究。
- 开放领域问答的增强生成检索
本文提出了一种 Generation-Augmented Retrieval 方法来回答开放领域的问题,这种方法通过发现相关语境并进行文本生成来增强查询,同时证明所生成的语境大大丰富了查询的语义,使用 BM25 稀疏表示与 DPU 等最先进 - 将概率模型 BM25/BM25F 集成到 Lucene 中
该研究介绍了使用 Lucene Java Framework 实现 BM25 和 BM25F 两种信息检索模型。BM25 适用于纯文本文件的检索,而 BM25F 适用于结构化文件。这两种模型广泛应用于国际信息检索领域,并在 TREC 比赛中