BriefGPT.xyz
Aug, 2024
精炼日志蒸馏的知识蒸馏
Knowledge Distillation with Refined Logits
HTML
PDF
Wujie Sun, Defang Chen, Siwei Lyu, Genlang Chen, Chun Chen...
TL;DR
本研究针对现有日志蒸馏方法的局限性,提出了一种新的精炼日志蒸馏(RLD)方法。该方法通过动态精炼教师模型的日志预测,消除误导性信息,保留重要的类别相关性,从而提高学生模型的学习效果。实验结果表明,在CIFAR-100和ImageNet数据集上,RLD相较于其他方法具有更优越的表现。
Abstract
Recent research on
Knowledge Distillation
has increasingly focused on
Logit Distillation
because of its simplicity, effectiveness, and versatility in
→