Nov, 2020

在线集成模型压缩技术 —— 基于知识蒸馏

TL;DR本文提出了一种新颖的基于知识蒸馏的模型压缩框架,在学生集成中启用了同时学习的知识蒸馏,并在压缩的学生模型上蒸馏同时学到的集成知识,该方法在不需要预训练权重的情况下同时训练了压缩学生和集成教师。该方法可以交付多个压缩的学生,并且使用我们的框架,可以以高效和灵活的方式适应不同场景。实验结果表明,使用我们的框架,一个压缩率达 97% 的 ResNet110 学生模型在 CIFAR100 数据集上相对精度提高了 10.64%,类似地,一个压缩率达 95%的 DenseNet-BC (k = 12)模型相对精度提高了 8.17%。