使用间脉间隔从脉冲神经网络中得出视觉解释
本文从认知神经科学方面入手,分析了 Spiking Neural Networks 这种新型生物神经样本学习 / 数据处理模型在模型、训练算法上面的优点和缺点,其中使用了概率模型和时间反向传播算法解决了部分难点,最后在神经元数据集上进行了对比实验.
Oct, 2020
本论文探讨了脉冲神经网络在语义分割方面的应用,通过替代全连接层和使用替代梯度学习方法,将基本的全卷积网络和 DeepLab 架构重构为 SNN 域的网络。实验表明,相较于 ANN 网络,SNN 网络在这个领域更加稳健和节能。
Oct, 2021
本文提出了一种名为 SpiNeMap 的方法,用于将 SNN 映射到基于交叉点的神经形态硬件平台上,最大限度地减少刺激延迟和能耗。SpiNeMap 由 SpiNeCluster 和 SpiNePlacer 两个步骤组成,它们分别使用启发式分技术来对 SNN 进行聚类,并使用元启发式技术来最小化在硬件上的能耗和刺激延迟。通过在 DynapSE 神经形态硬件上使用合成和现实 SNN 进行评估,证明了 SpiNeMap 相比现有技术,平均能源消耗减少 45%,平均刺激延迟减少 21%。
Sep, 2019
通过引入近似导数方法和基于脉冲的反向传播方法,本文提出一种可以直接训练深度脉冲神经网络的方法,实验结果表明,该方法在 MNIST、SVHN 和 CIFAR-10 数据集上取得了比其他基于脉冲的神经网络更好的分类效果。
Mar, 2019
该论文介绍了一种新技术,将尖峰神经元的电位视为可微信号,从而在较少的精度损失的情况下通过误差反向传播机制直接对尖峰信号和电位进行训练,这使得深度尖峰神经网络比以往的间接训练方法表现更好,能够更精确地捕获尖峰的静态特征。测试结果表明,该算法在 MNIST 和 N-MNIST 数据集上比以往的 SNNs 方法表现更好。
Aug, 2016
脉冲神经网络(SNN)是一种受生物启发的神经网络模型,通过脉冲和脉冲列进行神经元之间的通信,与标准人工神经网络(ANN)不同。本文首先对比了 SNN 和脉冲神经 P 系统(SNPS)的结构、功能、优点和缺点,然后综述了 SNN 和 SNPS 形式化方法在机器学习和深度学习模型中的最新研究成果和应用。
Mar, 2024
该研究论文讨论深度脉冲神经网络的训练方法,比较有监督和无监督学习的准确性、计算成本和硬件友好性,发现深度脉冲神经网络在准确性方面仍落后于人工神经网络,但在许多任务中可以达到相同的准确性并需要更少的计算操作。
Apr, 2018
Spiking Neural Networks (SNNs) achieve performance comparable to Artificial Neural Networks (ANNs) in machine learning tasks, with processing done through spikes in an event-based mechanism that reduces energy consumption. However, training SNNs is challenging due to the non-differentiable spiking mechanism, and alternative learning methods with varying degrees of locality have been proposed. This research explores the training process similarities, the influence of explicit recurrence, and the performance of local learning methods under adversarial attacks.
Feb, 2024