Apr, 2024

CKD:基于样本级别的对比知识蒸馏

TL;DR我们提出了一种简单而有效的对比知识蒸馏方法,通过样本间和样本内约束问题的分析,实现了‘黑暗知识’的恢复。我们的方法通过对齐学生和教师的逐样本逻辑回归,最小化了相同样本中的逻辑回归差异,同时通过利用不同样本之间的差异性来弥合语义差异。通过对这些约束进行对比学习框架的优化,我们的方法不仅具备简单、高效的特点,还能有效地减少运行复杂度和超参数调整的需求。通过在 CIFAR-100、ImageNet-1K 和 MS COCO 三个数据集上的实验证明了我们提出的方法在图像分类和物体检测任务上的有效性。