梯形梯度下降法用于脉冲网络中的有效强化学习
本文介绍了一种时间效率训练(TET)方法,以解决直接使用代理梯度进行训练的脉冲神经网络(SNNs)普遍存在的推广性差的问题,并且证明了该方法在各种数据集上超过了其他方法,尤其在 DVS-CIFAR10 上达到了 83% 的准确率,优于现有技术。
Feb, 2022
本研究提出了一种利用可微分脉冲神经网络模型的梯度下降方法,解决以往基于静态神经元的网络模型无法处理脉冲信号信息处理的问题。实验结果表明该方法可以优化脉冲神经网络的动态行为与行为时间的关系,并为基于脉冲信号的神经计算提供了通用的监督学习算法。
Jun, 2017
本文介绍了一种使用新颖代理梯度和可调谐自适应尖峰神经元的循环网络,将基于脉冲的神经网络的性能提高至具有挑战性的时间域基准的最新水平,并展示了这些 SNN 的计算效率比具有可比性能的 RNN 高出一到三个数量级,从而使 SNN 成为 AI 硬件实现的有吸引力的解决方案。
Mar, 2021
本文提供了一种新的方法(parametric surrogate gradient),用于根据候选 SG 的形状来确定最优 surrogate gradient 参数,以及用于调整潜在偏移量的方法(PDA),以帮助 SNNs 在更少的时间步骤内实现最先进的性能,并成功应用于静态和动态数据集的模拟中。
Apr, 2023
利用时间对齐范式 (TAP) 解决当前脉冲神经网络在增强学习中存在的时间不匹配问题,提高处理时间数据的能力,能在与递归神经网络 (RNNs) 相似性能下降低 50% 的电力消耗下解决部分可观测马尔科夫决策过程 (POMDPs) 和多智能体合作问题。
Apr, 2024
本文介绍了一种新型的深度脉冲神经网络(DSN),它可以直接进行参数训练,不需要先用传统深度神经网络的训练结果来初始化;研究表明,在 DSN 中控制反向路径的膜电位初始值是非常重要的,同时本文提出了一种简单而有效的方法可以加快 DSN 的收敛时间并提高准确性。
Nov, 2016
本研究提出了一种名为 DSQN 的深度尖峰 Q 网络,使用非尖峰神经元的膜电压作为 Q 值的表示,可以从高维度的感官输入中直接学习稳健的决策,并在 17 个 Atari 游戏中表现出优异的性能,具有更好的学习稳定性和对抗攻击鲁棒性。
Jan, 2022
本研究证明了在采用了时间编码方案的前馈脉冲网络中,网络输入 - 输出关系在几乎任何地方都是可微的,并且在变量转换后这种关系是分段线性的。此外,我们展示了通过该方法对项独立 MNIST 任务进行训练的结果,从而证明了训练人工神经网络的方法可以直接应用于训练这种脉冲网络。与基于速率的脉冲网络不同的是,我们所提出的网络的脉冲更为稀疏,且其行为不能直接由传统的人工神经网络来近似。这些结果强调了控制具有复杂时间信息的脉冲模式的脉冲网络行为的新方法。
Jun, 2016
该研究提出了一种基于神经元零阶技术的新型算法来克服反向传播过程中的梯度信息丢失和非可微的问题,并在 GPU 上实现了 SNN 的能量高效训练,相对于现有的能量高效技术具有更好的泛化性能和相似的效率。
Feb, 2023
该论文介绍了一种基于脉冲神经网络的快捷反向传播方法,用于解决梯度消失问题,并提出了一种进化训练框架,通过动态改变平衡系数来进一步提高网络性能。实验证明,该方法在静态和动态数据集上都优于现有方法。
Jan, 2024