使用动态时间步长的脉冲神经网络用于视觉变换器
本文提出了一种针对脉冲神经网络的迭代初始化及重训练方法 (IIR-SNN) 来进行单次推断,在保证精度的情况下将时延降到了极致,实验结果表明,该方法不仅具有可比较的性能,而且比同类算法在能效方面提高了 25-33 倍,相当于标准深度神经网络的性能。
Oct, 2021
当前,脉冲神经网络因其对稀疏和二元脉冲信息的处理能力以及避免昂贵的乘法操作而引起了广泛研究兴趣。然而,如果使用 In-Memory Computing(IMC)架构,SNNs 的能量成本和延迟会随时间步数线性增长。因此,为了最大化 SNN 的效率,我们提出了一种基于动态时间步长的输入感知 SNN 算法,通过计算每个时间步长后输出的熵来动态确定时间步长的数量,从而实现将能量延迟产品降低 80%。
May, 2023
通过修改 SNN 整合 - 发射神经元模型和在训练 ANN 过程中使用细粒度 L1 正则化和替代梯度等方法,我们提出了一种新的 ANN 转 SNN 框架,可以以极低的时间步和高级稀疏性实现无损 SNN,低延迟,低计算能耗和高测试准确性(例如,ImageNet 数据集上只有 4 个时间步的准确率为 73.30%)。
Dec, 2023
提出了一种基于深度 Spiking Neural Networks 的计算高效的训练方法,使用一个经过转换后的 SNN 为基础,使用脉冲反向传播进行深度训练,再逐步执行基于时序的反向传播,实现训练复杂度大幅降低,极大地减少了处理输入所需的时间步骤。
May, 2020
通过将 SNN 拆分为多个阶段,并逐渐减小时间步长,本研究提出了 Shrinking SNN (SSNN) 来实现低延迟的神经形态学物体识别。SSNN 能够显著降低推理延迟,并通过引入多个早期分类器来消除低延迟下性能的退化。实验证明,在多个神经形态学数据集上,SSNN 能够将基准准确度提高 6.55% ~ 21.41%。在 CIFAR10-DVS 数据集上,SSNN 只需 5 个平均时间步长且无需任何数据增强即可达到 73.63% 的准确度。本研究提出了一个具有异构时间尺度的 SNN,并对高性能、低延迟 SNN 的发展提供了有价值的见解。
Jan, 2024
提出了一种基于阈值相关批归一化(tdBN)和空间时间反向传播(STBP)的方法,可直接训练深度脉冲神经网络(SNN),并在神经形态硬件上实现其推理,单次训练达到了 93.15% 的 CIFAR-10 准确率、67.8% 的 DVS-CIFAR10 准确率和 67.05% 的 ImageNet 准确率,是第一次在 ImageNet 上探索具有高性能的直接训练的深度 SNN。
Oct, 2020
本研究探讨了一种调整 Spiking Neural Networks 中时间步数的方法 ——Spiking Early-Exit Neural Networks (SEENN),并提出了两种确定适当时间步数的策略,SEENN-I 和 SEENN-II。我们证明 SEENN 对于直接训练 SNN 和 ANN-SNN 的转换两种情况均兼容,并通过动态调整时间步数,在推理中实现了显著减少冗余时间步数的效果。例如,在 CIFAR-10 测试数据集上,我们的 SEENN-II ResNet-19 可实现 96.1%的准确度,平均时间步数为 1.08。
Apr, 2023
本文提出了一种多阈值(MT)方法,以缓解由二值激活带来的精度损失,从而使 SNNs 可以在更少的步骤达到更高的准确性,通过在 CIFAR10,CIFAR100 和 DVS-CIFAR10 上的评估,证明了 MT 可以广泛促进 SNNs,特别是在早期步骤中,例如,使用 MT,基于 Parametric-Leaky-Integrate-Fire(PLIF)的 VGG 网络甚至可以在 1 个步骤中胜过 ANN 对应物。
Mar, 2023
通过提出神经元规范化技术和直接学习算法,以及缩小速率编码窗口和将漏电整合 - 击发(LIF)模型转换为显式迭代版本的 Pytorch 实现方法,训练了高性能的 CIFAR10 数据集上的深度 SNN,开辟了探究 SNN 潜力的新途径。
Sep, 2018