一种低延迟自适应编码脉冲神经网络框架用于深度强化学习
借鉴昆虫中的非脉冲神经元,我们提出了一种完全脉冲的演员网络 (ILC-SAN),其中利用了神经形态硬件、脉冲神经网络和深度强化学习,旨在实现高效的人工智能控制任务。
Jan, 2024
本研究提出了一种名为 DSQN 的深度尖峰 Q 网络,使用非尖峰神经元的膜电压作为 Q 值的表示,可以从高维度的感官输入中直接学习稳健的决策,并在 17 个 Atari 游戏中表现出优异的性能,具有更好的学习稳定性和对抗攻击鲁棒性。
Jan, 2022
本文提出了一种 Differentiation on Spike Representation (DSR) 方法,利用加权频率编码将射击轨迹编码为射击表示,然后通过对子可微映射的梯度进行 SNN 训练,避免了 SNN 训练中常见的非可微性问题,该方法在静态和神经形态数据集上具有低延迟和最先进的 SNN 性能。
May, 2022
该研究提出了一种新型硬件体系结构,可支持具有新型神经编码的 SNN,并在 FPGA 上对 VGG 神经网络模型进行了部署,从而实现了 25%的功耗和 90%的延迟改善。
Jun, 2022
通过结合生物启发式多室神经元模型和群编码方法,提出基于突触前神经元的深度分布式强化学习算法,其在 Atari 游戏上的表现超过了 “vanilla” 的基于 ANN 的 FQF 模型和基于 ANN-SNN 转换方法的 Spiking-FQF 模型。
Jan, 2023
本文介绍了一种使用新颖代理梯度和可调谐自适应尖峰神经元的循环网络,将基于脉冲的神经网络的性能提高至具有挑战性的时间域基准的最新水平,并展示了这些 SNN 的计算效率比具有可比性能的 RNN 高出一到三个数量级,从而使 SNN 成为 AI 硬件实现的有吸引力的解决方案。
Mar, 2021
本文提出了一种基于适应性尖峰神经元的调整尖峰神经网络(ASNN),使用形式化的异步脉冲 Sigma-Delta 编码有效地对脉冲列进行信息编码,同时通过调节发放率进行神经元适应性,紧密耦合了神经适应性与突触可塑性,用尖峰神经元替换标准前馈人工神经网络中的 ReLU 神经元,成功地应用于分类 MNIST 数据集的深度卷积神经网络。
Sep, 2016
利用时间对齐范式 (TAP) 解决当前脉冲神经网络在增强学习中存在的时间不匹配问题,提高处理时间数据的能力,能在与递归神经网络 (RNNs) 相似性能下降低 50% 的电力消耗下解决部分可观测马尔科夫决策过程 (POMDPs) 和多智能体合作问题。
Apr, 2024
该研究介绍了一种新型自适应尖峰循环神经网络,能够在边缘人工智能硬件上实现比其他尖峰神经网络更高的性能,几乎达到或超过经典递归神经网络的性能,并展示了在更难的任务上超过经典递归神经网络的 $>$100 倍能量改进。
May, 2020
神经形态计算及尤其是脉冲神经网络 (SNNs) 作为深度神经网络的一种有吸引力的替代方法,已广泛应用于处理来自不同感觉模态的静态和 / 或时间输入的信号处理应用。本文从算法和优化创新的最新进展开始,旨在高效训练和扩展低延迟、能源高效的复杂机器学习应用中的脉冲神经网络 (SNNs)。然后,我们讨论了算法 - 架构共设计方面的最新研究成果,探索在实现高能效和低延迟的同时仍提供高准确性和可信性之间的固有权衡。然后,我们描述了为有效利用这种算法创新而开发的基础硬件。尤其是,我们描述了一种混合方法,即在内存组件和传感器本身中整合模型计算的重要部分。最后,我们讨论了构建可部署 SNN 系统的研究前景,重点是算法 - 硬件 - 应用共设计领域的关键挑战,强调了可信性。
Dec, 2023