研究表明,人工神经网络可以受益于使用变化速度比神经活动慢但比标准权重快的‘快速权重’,这可以用来存储最近过去的临时记忆并提供一种神经可信的方法来实现最近过去的关注,其中快速权重可以避免存储神经活动模式的需求。
Oct, 2016
本文介绍了一个基于无权重脉冲神经网络的原型,可以通过使用 Spike Timing Dependent Plasticity (STDP) 在神经元之间的时间上进行训练,而非传统的神经连接强度,以进行简单的分类任务。
Feb, 2022
通过改变丰富的时间参数,如时间常数和延迟,我们展示了网络在处理具有时间结构的任务时更加轻松和稳健的能力,并且在处理输入和权重中的噪声时,调整时间参数的优势将在神经形态学硬件设计中发挥作用。
Apr, 2024
本研究提出一种基于神经常微分方程的多关系图卷积网络连续模型,通过图转换层捕获动态图的转换,实现对时间和结构信息进行连续时间动态嵌入,并在五个基准数据集上进行了大量实验证明,该模型在未来链接预测任务中具有卓越的性能。
Jan, 2021
本文介绍了一种针对 Leaky Integrate and Fire 神经元的高效训练算法,该算法能够训练 SNN 学习复杂的时空模式,并且通过与硬件结合的方式,展示了神经元和突触基于忆阻器的网络实现的原理及优点。
Apr, 2021
通过应用局部、始终开启的可塑性规则,我们能够在由两个群体组成的递归网络中学习复杂序列,我们的模型具有资源高效性,仅需少量神经元即可学习复杂序列,我们通过鸟鸣学习的模拟中展示了这些特点,在该模拟中,我们的网络首先学习了一个长的非马尔可夫序列,尽管存在外部干扰,它们能够稳健地复现此序列。
Feb, 2024
本文讨论时间变化网络的动态过程,着重研究了随机漫步的行为特征,并提出了简单数学框架来描述真实数据集上观察到的行为,从而分析了时间积分技术引入的偏差对时间变化图上动态过程的正确描述的影响。
Nov, 2012
本文提出了一种名为 TDE-GNN 的模型,它可以捕捉超过典型的一阶或二阶方法的各种时间动力学,并提供了现有时间模型难以处理的用例。通过在几个图形基准上学习时间依赖性,我们证明了使用我们的方法学习时间依赖性而不是使用预定义时间动态的好处。
Jan, 2024
提出一种训练算法,将 SNN 作为无限脉冲响应(IIR)滤波器的网络,以学习 SNN 的时空模式,并构建用于合成和公共数据集的联想记忆和分类器,其准确度优于最先进的方法。
Feb, 2020
本文通过估算 SNN 中权重的 Fisher 信息在训练期间的分布来回答了几个基本问题,发现时间信息浓缩现象是 SNN 的一个普遍的学习特征,并提出了一种基于该现象的高效迭代剪枝方法。
Nov, 2022