ECCVApr, 2021

DisCo: 用蒸馏对比学习订正轻量模型的自监督学习

TL;DR本文提出了一种名为 Distilled Contrastive Learning (DisCo) 的方法,通过将主流自监督学习方法中蕴含的最有价值的信息提取出来,然后通过约束学生模型的最终嵌入与教师模型的嵌入保持一致,从而大幅缓解模型规模减小时的性能退化问题,实验结果表明,DisCo 在所有轻型模型上取得了最先进的性能,并且在部署过程中不会引入任何额外的参数。