提出了一种有效的方法,将 ResNet 转换为名为 S-ResNet 的脉冲神经元网络,该方法采用转换模型和补偿机制来降低离散化引起的误差,并在 CIFAR-10,CIFAR-100 和 ImageNet 2012 数据集上实现了比现有 SNN 途径更好的性能,这是第一次在大规模数据集上构建超过 40 层深度的 SNN,并获得与 ANNs 相当的性能。
Apr, 2018
设计具有高准确性的可逆 SNN 节点以降低内存占用并利用算法来加速训练过程,从而减少训练时间。
Aug, 2023
提出了一个通用的训练框架,提高了有限时间步长内特征学习和激活效率,为更节能的 SNN 提供了新的解决方案。
Jan, 2024
通过修改 SNN 整合 - 发射神经元模型和在训练 ANN 过程中使用细粒度 L1 正则化和替代梯度等方法,我们提出了一种新的 ANN 转 SNN 框架,可以以极低的时间步和高级稀疏性实现无损 SNN,低延迟,低计算能耗和高测试准确性(例如,ImageNet 数据集上只有 4 个时间步的准确率为 73.30%)。
Dec, 2023
使用 Residual Membrane Potential (RMP) 神经元的 ANN-SNN 转换可在多个数据集和网络结构上实现近乎零损失的图像识别和推理,且优于使用硬复位尖峰神经元的 SNN 推理精度。
Feb, 2020
该研究提出了一种新型硬件体系结构,可支持具有新型神经编码的 SNN,并在 FPGA 上对 VGG 神经网络模型进行了部署,从而实现了 25%的功耗和 90%的延迟改善。
Jun, 2022
提出了一种基于深度 Spiking Neural Networks 的计算高效的训练方法,使用一个经过转换后的 SNN 为基础,使用脉冲反向传播进行深度训练,再逐步执行基于时序的反向传播,实现训练复杂度大幅降低,极大地减少了处理输入所需的时间步骤。
May, 2020
本文研究了脉冲神经网络的训练方法,将其应用于 CIFAR10 和 ImageNet 数据集中,并采用量化和扰动方式增强其稳健性,最终证明了脉冲神经网络在实际应用中具有高性能和高能效的可行性。
Sep, 2019
通过优化初始膜电位实现高精度 ANN-to-SNN 转换,使得 SNN 在低延迟下达到了与最优性能相当的准确率,并在 CIFAR-10、CIFAR-100 和 ImageNet 数据集上取得了最新的结果。
Feb, 2022
提出了一种基于阈值相关批归一化(tdBN)和空间时间反向传播(STBP)的方法,可直接训练深度脉冲神经网络(SNN),并在神经形态硬件上实现其推理,单次训练达到了 93.15% 的 CIFAR-10 准确率、67.8% 的 DVS-CIFAR10 准确率和 67.05% 的 ImageNet 准确率,是第一次在 ImageNet 上探索具有高性能的直接训练的深度 SNN。
Oct, 2020