Sep, 2024

Kendall的$τ$系数用于Logits蒸馏

TL;DR本研究解决了知识蒸馏中Kullback-Leibler(KL)散度在优化方向上的局限性,提出了一种基于Kendall的$τ$系数的Ranking损失(RKKD),该损失更好地关注小值通道,有助于捕捉类间关系信息。实验结果表明,RKKD在多种知识蒸馏基线和教师-学生架构组合中显著提升了模型性能。