Aug, 2021

通过合成数据防止知识蒸馏中的灾难性遗忘和分布不匹配

TL;DR本论文提出了一种基于知识蒸馏的数据无需模型压缩框架,通过维护一个动态的生成样本集合并添加实际数据分布的限制,解决了现有数据无需压缩方法中可能存在的灾难性遗忘问题和人工数据分布不匹配问题。在 SVHN、Fashion MNIST 和 CIFAR100 数据集上与最先进的方法相比,表明可以提高通过知识蒸馏获得的学生模型的精度。