使用生物合理奖励传播调整卷积脉冲神经网络
通过结合空间域(SD)和时间相关的时域(TD),并提出了一种适合于梯度下降训练的迭代 LIF 模型,以及脉冲活动的近似导数,本文提出了一种新的时空反向传播(STBP)训练框架,它能够使多层感知器 (MLP) 在静态 MNIST 和动态 N-MNIST 数据集以及自定义对象检测数据集上获得比现有状态 - of-the-art 算法更好的性能。该框架为未来的类脑计算范式探索高性能脉冲神经网络提供了新的视角。
Jun, 2017
本文介绍了一种用于训练深度 recurrent spiking neural networks 的新算法:Spike-Train level RSNNs Backpropagation (ST-RSBP)。该算法通过直接计算网络输出层中定额编码的 loss function 相对可调参数的梯度来训练 RSNNs,在 TI46、N-TIDIGITS、Fashion-MNIST 和 MNIST 等数据集上都表现出了优于当前最先进的 SNN BP 算法和传统的非 spiking 深度学习模型的准确性。
Aug, 2019
本文提出了一种基于神经科学中对称性脉冲定时相关塑性规则的生物可行的 SNN 模型,该模型结合生物可行的突触缩放和动态阈值的内在可塑性来实现监督学习,并在标准识别任务中实现了良好的性能,其学习规则基于局部脉冲事件,因此可以轻松应用于神经形态硬件,有助于理解生物神经系统内部的监督学习信息处理机制。
Dec, 2018
通过实时与合适的自上而下学习信号合并本地可用信息,为循环神经网络提供了高效的学习算法,其中包括了神经形态芯片的在线训练,从而拓宽了大脑中的网络学习理解并在实验中得到了验证。
Jan, 2019
本文提出一种基于事件驱动的脉冲时序依赖可塑性 (Spike-Timing-Dependent Plasticity, STDP) 规则的监督学习方法,可以在保持计算精度的同时提高计算效率,特别适用于脉冲神经网络 (Spiking Neural Networks, SNNs)。实验结果表明,该方法可以较好地处理 XOR 问题、鸢尾花数据以及 MNIST 数据集,表现与传统神经网络相当,甚至比目前最先进的多层 SNNs 效果更好。
Nov, 2017
Spiking Neural Networks (SNNs) achieve performance comparable to Artificial Neural Networks (ANNs) in machine learning tasks, with processing done through spikes in an event-based mechanism that reduces energy consumption. However, training SNNs is challenging due to the non-differentiable spiking mechanism, and alternative learning methods with varying degrees of locality have been proposed. This research explores the training process similarities, the influence of explicit recurrence, and the performance of local learning methods under adversarial attacks.
Feb, 2024
本文提出一种 TSSL-BP 方法来训练深度的尖峰神经网络,并通过考虑突触前神经元的发放时间和处理每个神经元状态的内部演化来捕获神经元间和神经元内的依赖关系,从而提高了时间学习精度。该方法有效地在几个步骤内训练深度 SNNs,提高了诸如 CIFAR10 的各种图像分类数据集的准确性。
Feb, 2020
提出了一种基于阈值相关批归一化(tdBN)和空间时间反向传播(STBP)的方法,可直接训练深度脉冲神经网络(SNN),并在神经形态硬件上实现其推理,单次训练达到了 93.15% 的 CIFAR-10 准确率、67.8% 的 DVS-CIFAR10 准确率和 67.05% 的 ImageNet 准确率,是第一次在 ImageNet 上探索具有高性能的直接训练的深度 SNN。
Oct, 2020
本文介绍了一个针对 DeepSNNs 设计的 Spike-Timing-Dependent Back-Propagation 学习算法,并提供了一种新的思路,探讨了时序动态、突触可塑性和决策等方面对信息编码的贡献,为未来 DeepSNNs 和神经形态硬件系统的设计提供了新的视角和方法。
Mar, 2020
该论文介绍了一种名为 desire backpropagation 的方法,它利用 STDP 的权重更新,实现了全局误差最小化和分类准确率的提高;同时,该方法具有 STDP 的神经动力学和计算效率,是一种基于脉冲的监督学习规则。作者使用 desire backpropagation 对 MNIST 和 Fashion-MNIST 图像进行了分类,实验效果良好。
Nov, 2022