May, 2023

DynamicKD: 基于动态熵校正的知识蒸馏实现间隙优化

TL;DR本文提出了一种基于动态熵校正的知识蒸馏算法,旨在通过调整学生网络而非教师网络来减少它们之间的性能差异。该算法在 CIFAR100 和 ImageNet 数据集上获得了令人印象深刻的结果,特别是在 teacher-resnet32x4 - student-resnet8x4 模型上,该算法在分类准确率上超过了传统算法和当前业内领先的算法 CRD。