Oct, 2024
通过多样化扩散增强实现有效的数据无关知识蒸馏
Towards Effective Data-Free Knowledge Distillation via Diverse Diffusion
Augmentation
TL;DR本研究解决了传统数据无关知识蒸馏(DFKD)方法在合成训练数据中缺乏多样性和分布差异的问题。我们提出了一种创新的多样化扩散增强(DDA)方法,并通过自我监督增强生成具有相似分布和可控变化的数据样本。实验结果表明,该方法在多种网络配置下优于现有的DFKD技术,具有显著的性能提升。