用于高性能脉冲神经网络训练的时空反向传播
通过引入近似导数方法和基于脉冲的反向传播方法,本文提出一种可以直接训练深度脉冲神经网络的方法,实验结果表明,该方法在 MNIST、SVHN 和 CIFAR-10 数据集上取得了比其他基于脉冲的神经网络更好的分类效果。
Mar, 2019
提出了一种基于阈值相关批归一化(tdBN)和空间时间反向传播(STBP)的方法,可直接训练深度脉冲神经网络(SNN),并在神经形态硬件上实现其推理,单次训练达到了 93.15% 的 CIFAR-10 准确率、67.8% 的 DVS-CIFAR10 准确率和 67.05% 的 ImageNet 准确率,是第一次在 ImageNet 上探索具有高性能的直接训练的深度 SNN。
Oct, 2020
本文提出一种 TSSL-BP 方法来训练深度的尖峰神经网络,并通过考虑突触前神经元的发放时间和处理每个神经元状态的内部演化来捕获神经元间和神经元内的依赖关系,从而提高了时间学习精度。该方法有效地在几个步骤内训练深度 SNNs,提高了诸如 CIFAR10 的各种图像分类数据集的准确性。
Feb, 2020
本文介绍了一种用于训练深度 recurrent spiking neural networks 的新算法:Spike-Train level RSNNs Backpropagation (ST-RSBP)。该算法通过直接计算网络输出层中定额编码的 loss function 相对可调参数的梯度来训练 RSNNs,在 TI46、N-TIDIGITS、Fashion-MNIST 和 MNIST 等数据集上都表现出了优于当前最先进的 SNN BP 算法和传统的非 spiking 深度学习模型的准确性。
Aug, 2019
该论文介绍了一种新技术,将尖峰神经元的电位视为可微信号,从而在较少的精度损失的情况下通过误差反向传播机制直接对尖峰信号和电位进行训练,这使得深度尖峰神经网络比以往的间接训练方法表现更好,能够更精确地捕获尖峰的静态特征。测试结果表明,该算法在 MNIST 和 N-MNIST 数据集上比以往的 SNNs 方法表现更好。
Aug, 2016
本文提出一种基于事件驱动的脉冲时序依赖可塑性 (Spike-Timing-Dependent Plasticity, STDP) 规则的监督学习方法,可以在保持计算精度的同时提高计算效率,特别适用于脉冲神经网络 (Spiking Neural Networks, SNNs)。实验结果表明,该方法可以较好地处理 XOR 问题、鸢尾花数据以及 MNIST 数据集,表现与传统神经网络相当,甚至比目前最先进的多层 SNNs 效果更好。
Nov, 2017
该论文提出一种基于奖励传播的算法,该算法应用于脉冲神经网络(SNN)架构中的脉冲卷积和全连接层,该算法能够替代标准反向传播算法,实现对 SNN 的训练。使用该算法的 SNN 在空间和时间任务上的表现已经得到验证,达到了 BP-SNN 的类似准确度并节省了 50%的计算成本。
Oct, 2020
Spiking Neural Networks (SNNs) achieve performance comparable to Artificial Neural Networks (ANNs) in machine learning tasks, with processing done through spikes in an event-based mechanism that reduces energy consumption. However, training SNNs is challenging due to the non-differentiable spiking mechanism, and alternative learning methods with varying degrees of locality have been proposed. This research explores the training process similarities, the influence of explicit recurrence, and the performance of local learning methods under adversarial attacks.
Feb, 2024
本文提出了一种基于 Spike-Timing Dependent Plasticity (STDP) 的监督学习算法,用于基于 Leaky Integrate-and-fire (LIF) 神经元的分层 Spiking Neural Networks。该算法经 MNIST 数据集训练后,分类精度接近于使用标准反向传播算法训练的类似结构的多层感知器模型。
Mar, 2022
该研究论文讨论深度脉冲神经网络的训练方法,比较有监督和无监督学习的准确性、计算成本和硬件友好性,发现深度脉冲神经网络在准确性方面仍落后于人工神经网络,但在许多任务中可以达到相同的准确性并需要更少的计算操作。
Apr, 2018