Apr, 2025
在脉冲神经网络知识蒸馏中考虑头尾的KL散度
Head-Tail-Aware KL Divergence in Knowledge Distillation for Spiking
Neural Networks
TL;DR本研究解决了脉冲神经网络(SNN)在性能上与人工神经网络(ANN)之间的差距,提出了一种新的知识蒸馏方法——头尾关注的KL散度(HTA-KL)。该方法通过动态区分高低概率区域并分配适应性权重,提升了知识转移的平衡性,最终在多个数据集上的表现优于现有方法。