AAAIJan, 2022
通过生成伪回放实现稳健且资源高效的无数据知识蒸馏
Robust and Resource-Efficient Data-Free Knowledge Distillation by Generative Pseudo Replay
Kuluhan Binici, Shivam Aggarwal, Nam Trung Pham, Karianto Leman, Tulika Mitra
TL;DR本文提出了一种基于 Variational Autoencoder 的合成数据生成方法,以替代存储和重复合成数据的方式,从而提高基于 Data-Free Knowledge Distillation 方法的神经网络压缩效果,实现机器学习模型精简。