Jun, 2024
降低活动性的蒸馏和正则化方法用于能源高效的脉冲神经网络
On Reducing Activity with Distillation and Regularization for Energy Efficient Spiking Neural Networks
Thomas Louis, Benoit Miramond, Alain Pegatoquet, Adrien Girard
TL;DR利用知识蒸馏和梯度下降进行训练可以优化脉冲神经网络的性能和脉冲活动之间的平衡,同时激活正则化和逻辑回归方法可以减少网络的脉冲活动。