Aug, 2021
面向语料库的无监督语言模型预训练用于密集文本检索
Unsupervised Corpus Aware Language Model Pre-training for Dense Passage Retrieval
Luyu Gao, Jamie Callan
TL;DR本文提出了 coCondenser 方法,将 Condenser 预训练架构与无监督语料级对比损失相结合,减轻了密集检索器对大规模训练数据和数据工程的依赖,并通过实验表明,该方法具有与 RocketQA 相当的性能。