Spiker:面向脉冲神经网络的 FPGA 优化硬件加速
Spiker + 是一个在 FPGA 上生成高效、低功耗、低面积的定制化脉冲神经网络(SNN)加速器的综合框架,在边缘进行推断。它通过配置多层硬件 SNN、高效的神经元架构库和设计框架,以极少量的 Python 代码开发复杂的神经网络加速器。使用 MNIST 和 SHD 两个基准数据集进行测试,Spiker + 在 MNIST 上表现出与最先进的 SNN 加速器相媲美的性能,资源分配需求为 7,612 个逻辑单元和 18 个 Block RAMs,并且在处理一张输入图像的完整推断过程中仅消耗 180mW 的功耗。与最先进的加速器相比,延迟相当,为 780 微秒 / 图像。据作者所知,Spiker + 是在 SHD 上进行测试的第一个 SNN 加速器,资源需求为 18,268 个逻辑单元和 51 个 BRAM,功耗为 430mW,并且在处理输入数据的完整推断过程中延迟为 54 微秒。这凸显了 Spiker + 在硬件加速的 SNN 领域的重要性,使其成为在资源和功耗受限的边缘应用中部署可配置和可调节的 SNN 架构的绝佳解决方案。
Jan, 2024
本文研究卷积神经网络和脉冲神经网络在 FPGA 加速器上的性能和能量效率,探究 SNN 是否能实现减少能量要求等期望,结果发现在复杂的应用场景如 SVHN 和 CIFAR-10 上,SNN 的能量和效率优势并不明显,而在小规模 MNIST 等基准测试中,两者基本相当。
Jun, 2023
该研究提出了一种新型硬件体系结构,可支持具有新型神经编码的 SNN,并在 FPGA 上对 VGG 神经网络模型进行了部署,从而实现了 25%的功耗和 90%的延迟改善。
Jun, 2022
使用 SpikExplorer,利用硬件导向的自动设计空间探索来优化 SNNs,以增加硬件资源效率,减少功耗,并提供多种目标优化选项。在三个基准数据集上展示了 SpikExplorer 的潜力,实现了 95.8% 的准确率,每个图像功耗为 180mW,延迟为 0.12ms,成为自动优化 SNNs 的强大工具。
Apr, 2024
通过提出神经元规范化技术和直接学习算法,以及缩小速率编码窗口和将漏电整合 - 击发(LIF)模型转换为显式迭代版本的 Pytorch 实现方法,训练了高性能的 CIFAR10 数据集上的深度 SNN,开辟了探究 SNN 潜力的新途径。
Sep, 2018
本文介绍了一种方法,该方法可以训练使用 Leaky Integrate-and-Fire(LIF)神经元的脉冲深度网络,并在包括大型 ImageNet ILSVRC-2012 基准测试在内的五个数据集上取得了最先进的结果。该方法可扩展,并适用于各种神经非线性。通过软化神经响应函数以使其导数保持有界,并通过噪声训练网络,我们实现了这些结果,以提高其承受由脉冲引入的变异性的鲁棒性。我们的分析表明,在神经形态硬件上实现这些网络将比传统硬件上等效的非脉冲网络更加节能。
Nov, 2016
DeepFire2 是一种新型的硬件架构,能够在多个逻辑区域上高效地映射大型网络层,大大提高了吞吐量和能源利用率,同时避免了查找表对 SNN 逻辑资源的限制,能够部署大型的 ImageNet 模型,保持每秒超过 1500 帧的吞吐量。
May, 2023
本文研究了基于神经形态计算在计算机视觉领域中的可扩展性,为了实现在降低功耗的同时达到非神经形态计算的性能。我们将深度神经网络架构 U-Net 转化为脉冲神经网络架构,并采用 ISBI 2D EM Segmentation 数据集对其进行训练和优化。我们提出了一种优化多芯片网络部署的分区方法,并探讨了对定期发放率进行正则化以最小限度地减少精度损失和优化能量消耗的优势。最终在 Intel Loihi 神经形态芯片上进行的神经形态实现比传统硬件 (CPU,GPU) 在线运行时节省能源的倍数,同时在不牺牲网络的任务性能准确性的情况下实现了这些功率改进。
Jun, 2021
通过修改 SNN 整合 - 发射神经元模型和在训练 ANN 过程中使用细粒度 L1 正则化和替代梯度等方法,我们提出了一种新的 ANN 转 SNN 框架,可以以极低的时间步和高级稀疏性实现无损 SNN,低延迟,低计算能耗和高测试准确性(例如,ImageNet 数据集上只有 4 个时间步的准确率为 73.30%)。
Dec, 2023