May, 2023
知识蒸馏对模型可解释性的影响
On the Impact of Knowledge Distillation for Model Interpretability
TL;DR研究表明知识蒸馏不仅可以提高模型性能,还可以增强模型的可解释性。通过量化比较模型可解释性中概念探测器数量的改变,研究表明老师模型传递到学生模型的类相似信息可以提高模型可解释性。这一结论得到了通过定量和定性实验以及不同数据集、不同KD方法和不同可解释性指标的检验。结果表明,通过KD,大模型训练的模型可更可靠地用于各种领域。