Mar, 2022

引入 Neural Bag of Whole-Words with ColBERTer: 使用增强的 Reduction 进行上下文化的后期交互

TL;DR本文提出了 ColBERTer,这是一个使用上下文化的 ColBERT 模型与增强的减少方法的神经检索模型。它采用了单向量检索、多向量细化和可选词汇匹配组件,其多向量组件通过学习每个文档中的项的唯一整词表示并学习识别和删除对于有效评分来说不必要的词表示,可以将文档的存储向量数量减少 2.5 倍。结果表明,ColBERTer 可以提高检索结果的可解释性,同时保持检索结果的有效性,并且具有多任务学习的特点。