轴突延迟作为前馈深度脉冲神经网络的短期记忆
脉冲神经网络在信息表示和处理中依赖信号的时间性。本文提出了一种基于事件的分析方法,可以计算出准确的损失梯度,包括突触权重和传输延迟,丰富了模型的搜索空间。研究结果显示,学习延迟在提高准确性和参数效率方面具有重要优势。
Apr, 2024
通过协同学习连接权重、神经元适应过程和突触传播延迟等生物灵感神经元特征,本文展示了脉冲神经网络 (SNN) 在数据处理方面的增强,进而在具有丰富时间动态的任务上表现出与等效人工神经网络 (ANN) 类似大小的最先进效果。
Sep, 2023
SNNs, when combined with synaptic delay and temporal coding, demonstrate efficient graph reasoning and achieve significant energy savings compared to non-spiking networks.
May, 2024
提出了一个新的离线离散时间算法,基于通过时间的 1D 卷积进行模拟,来学习深度前馈 SNN 中的延迟并提高其表现,这一算法使用了可学习间隔的扩张卷积(DCLS),在测试中表现优于最新技术,为时序数据处理中精确模型的发展提供了潜力。
Jun, 2023
本文探索了一种新的局部学习规则,该规则适用于脉冲神经网络,其中脉冲传播时间会发生经验依存性的可塑性更改,通过实现分类精度的提高和记忆能力的扩展,证明了该方法的潜力。
Oct, 2022
本文提出了一种框架,用于在数字神经形态硬件中训练和部署高性能尖峰神经网络模型(SNNs),其中除了神经突触的突触权重外,还进行了协同优化的突触延迟。评估了在两个神经形态数字硬件平台(Intel Loihi 和 Imec Seneca)上训练的模型,并展示了从软件到硬件的过渡过程中的最小精度降低。
Apr, 2024
本文介绍了一个基于无权重脉冲神经网络的原型,可以通过使用 Spike Timing Dependent Plasticity (STDP) 在神经元之间的时间上进行训练,而非传统的神经连接强度,以进行简单的分类任务。
Feb, 2022
本文介绍了一种针对 Leaky Integrate and Fire 神经元的高效训练算法,该算法能够训练 SNN 学习复杂的时空模式,并且通过与硬件结合的方式,展示了神经元和突触基于忆阻器的网络实现的原理及优点。
Apr, 2021
提出一种训练算法,将 SNN 作为无限脉冲响应(IIR)滤波器的网络,以学习 SNN 的时空模式,并构建用于合成和公共数据集的联想记忆和分类器,其准确度优于最先进的方法。
Feb, 2020
通过改变丰富的时间参数,如时间常数和延迟,我们展示了网络在处理具有时间结构的任务时更加轻松和稳健的能力,并且在处理输入和权重中的噪声时,调整时间参数的优势将在神经形态学硬件设计中发挥作用。
Apr, 2024