SIGIRApr, 2022

Distill-VQ:通过密集嵌入提取知识进行检索导向量化

TL;DR该论文提出了一种基于知识蒸馏框架的 Distill-VQ 算法,通过将密集的嵌入作为 “教师” 来预测查询与样本文档的相关性,并将 VQ 模块作为 “学生” 学习以复现预测的相关性,得出的检索结果可以完全保留密集嵌入的检索结果,从而使未标记的数据可以给出丰富的训练信号,无需标记数据的高质量向量量化,该算法在实践中具有很强的适用性。