Apr, 2023

深度集体知识蒸馏

TL;DRDCKD 是一种深度集体知识蒸馏的模型压缩方法,旨在通过丰富的信息让学生模型从老师模型和其他学生模型中获取知识,本文探讨了如何在训练过程中提高类别之间的相关性,实验结果表明该方法在 ImageNet 和 CIFAR-100 数据集上取得了最先进的性能表现。