Oct, 2020

CoRT: 基于Transformer的互补排名

TL;DR本论文提出了一种简单的神经第一阶段排序模型CoRT,通过利用预训练语言模型(如BERT)的上下文表示来补充基于术语的排名函数,从而在不影响查询时间的情况下提高候选集的召回率。使用MS MARCO数据集,展示了CoRT能够显著提高候选集的召回率,从而使得后续的重新排名器可以通过更少的候选集获得更好的结果。此外,我们还展示了使用CoRT进行段落检索具有惊人的低延迟。