BriefGPT.xyz
Ask
alpha
关键词
deep collective knowledge distillation
搜索结果 - 1
深度集体知识蒸馏
DCKD 是一种深度集体知识蒸馏的模型压缩方法,旨在通过丰富的信息让学生模型从老师模型和其他学生模型中获取知识,本文探讨了如何在训练过程中提高类别之间的相关性,实验结果表明该方法在 ImageNet 和 CIFAR-100 数据集上取得了最
→
PDF
a year ago
Prev
Next