Spikeformer:一种用于训练高性能低延迟脉冲神经网络的新型结构
本研究提出了一种硬件友好的、基于残差设计的、全新的、纯变压器型脉冲神经网络 ——Spikingformer,它能够避免非脉冲计算并使能耗降低 60.34%。Spikingformer 在图像分类任务的表现优于之前的纯 SNN,并且是首次开发出全脉冲驱动的变压器型 SNN。
Apr, 2023
通过结合自注意能力和生物特性,本论文提出了一种新颖的脉冲自注意 (SSA) 和脉冲变换器 (Spikformer),其中 SSA 机制消除了 softmax 的需求,利用基于脉冲的查询、键和值实现了稀疏视觉特征的捕获,而 SCS 则用于增强 Spikformer 的架构。通过自监督学习 (SLS) 实现对更大、更深的 Spikformer V2 的训练,实验证明此方法在 ImageNet 上的分类准确性超过了其他方法,且 SNN 首次在 ImageNet 上达到超过 80% 的准确性。
Jan, 2024
通过提出一种名为 "Meta-SpikeFormer" 的通用 Transformer 架构,本论文实现了对 CNN-based SNNs 具有压倒性性能优势的低功耗、多功能、高性能、面向未来下一代神经形态芯片设计的 Meta 架构,并应用于分类、检测和分割任务中,取得了 SNN 领域的最佳结果。
Feb, 2024
通过修改 SNN 整合 - 发射神经元模型和在训练 ANN 过程中使用细粒度 L1 正则化和替代梯度等方法,我们提出了一种新的 ANN 转 SNN 框架,可以以极低的时间步和高级稀疏性实现无损 SNN,低延迟,低计算能耗和高测试准确性(例如,ImageNet 数据集上只有 4 个时间步的准确率为 73.30%)。
Dec, 2023
SpikeZIP-TF 是一种新的 ANN-to-SNN 转换方法,其 ANN 和 SNN 之间的等效性不会导致准确率降低,在 CV 和 NLP 任务上分别获得了 83.82% 和 93.79% 的准确率,优于目前最先进的基于 Transformer 的 SNNs。
Jun, 2024
SparseSpikformer 是一种通过令牌和权重修剪技术实现稀疏性的共设计框架,可以显著减少模型参数 90%并减少 20%的 GFLOPs,同时保持原始模型的准确性。
Nov, 2023
本论文探讨了脉冲神经网络在语义分割方面的应用,通过替代全连接层和使用替代梯度学习方法,将基本的全卷积网络和 DeepLab 架构重构为 SNN 域的网络。实验表明,相较于 ANN 网络,SNN 网络在这个领域更加稳健和节能。
Oct, 2021
我们研究了利用脉冲神经网络的直接训练的 SVFormer(Spiking Video transFormer)进行视频动作识别,通过整合局部特征提取、全局自注意力和 SNN 的内在动态、稀疏性和脉冲驱动特性,以更高效和有效的方式提取时空特征,并在两个 RGB 数据集(UCF101、NTU-RGBD60)和一个神经形态学数据集(DVS128-Gesture)上进行了评估,表现出与主流模型相媲美的性能同时功耗更低,UCF101 的准确率达到 84.03%,能耗仅为 21 mJ / 视频,这是在直接训练的深度 SNN 中的最新技术水平,显示出相对于以前的模型的显著优势。
Jun, 2024
通过提出神经元规范化技术和直接学习算法,以及缩小速率编码窗口和将漏电整合 - 击发(LIF)模型转换为显式迭代版本的 Pytorch 实现方法,训练了高性能的 CIFAR10 数据集上的深度 SNN,开辟了探究 SNN 潜力的新途径。
Sep, 2018
通过将自注意力能力和脉冲神经网络(SNNs)的生物特性相结合,Spikformer 将蓬勃发展的 Transformer 架构应用于 SNN 设计。它引入了脉冲自注意力(SSA)模块,使用脉冲形式的查询、键和值来混合稀疏视觉特征,与之前的类 SNN 框架相比,在许多数据集上呈现出最先进的性能。该论文证明了 Spikformer 架构可以通过将 SSA 替换为非参数化的线性变换(LT),如傅里叶和小波变换,来加速。这些变换被用于混合脉冲序列,将二次时间复杂度降低为对数线性时间复杂度。它们在频率和时间域之间交替提取稀疏视觉特征,展示了强大的性能和效率。我们在使用神经形态学和静态数据集进行图像分类方面进行了广泛的实验。结果表明,与具有 SSA 的最先进的 Spikformer 相比,具有 LT 的 Spikformer 在神经形态学数据集上实现了更高的 Top-1 准确率,并且在静态数据集上实现了可比较的 Top-1 准确率。此外,与需要可学习参数的 SSA 相比,具有 LT 的 Spikformer 实现了约 29%至 51%的训练速度提升,61%至 70%的推断速度提升,并且减少了 4%至 26%的内存使用量。
Aug, 2023