Jun, 2021
评估和减轻知识蒸馏中砍枝神经网络的偏差
Simon Says: Evaluating and Mitigating Bias in Pruned Neural Networks with Knowledge Distillation
Cody Blakeney, Nathaniel Huish, Yan Yan, Ziliang Zong
TL;DR本文提出了两种简单而有效的度量方法,CEV 和 SDE,以量化剪枝模型的偏差防御质量,并展示了知识蒸馏可以调和剪枝神经网络中的偏差。我们发现模型相似度与剪枝诱导的偏差之间存在强关联,这提供了一种强大的方法来解释为什么在剪枝神经网络中会发生偏差。