ACLOct, 2020

CoRT: 基于 Transformer 的互补排名

TL;DR本论文提出了一种简单的神经第一阶段排序模型 CoRT,通过利用预训练语言模型(如 BERT)的上下文表示来补充基于术语的排名函数,从而在不影响查询时间的情况下提高候选集的召回率。使用 MS MARCO 数据集,展示了 CoRT 能够显著提高候选集的召回率,从而使得后续的重新排名器可以通过更少的候选集获得更好的结果。此外,我们还展示了使用 CoRT 进行段落检索具有惊人的低延迟。