脉冲图卷积网络
该研究论文提出了一种名为动态神经图网络(Dynamic Spiking Graph Neural Networks)的框架,用于解决动态图表示学习中的信息丢失和内存要求问题,通过将早期信息直接传递到最后一层以进行信息补偿,并在动态图环境中扩展了隐式微分以适应内存要求,并通过在三个大规模实际动态图数据集上的大量实验证明了其在动态节点分类任务上的有效性与较低的计算成本。
Dec, 2023
本文提出了一个将注意机制与脉冲神经网络 (SNN) 相结合的新方法,以改进图表示学习的能力。该方法能够在学习过程中选择性地关注图中重要的节点和相应的特征,并在多个基准数据集上进行评估,结果显示其性能与现有的图学习技术相当。
Mar, 2024
介绍一种名为 SpikeNet 的可扩展框架,它旨在使用脉冲神经网络(SNNs)而非循环神经网络(RNNs)来捕获时变图的时变和结构模式,SpikeNet 在计算成本更低的情况下在时态节点分类任务上超过了强基线,并具有更少的计算负担。
Aug, 2022
本研究介绍了一种用于文本分类的 “转换 + 微调” 两步方法,提出了一种将预训练词嵌入编码为脉冲训练的简单而有效的方式,并经验证通过使用替代梯度进行微调后,这些转换后的脉冲神经网络在英文和中文数据集上能够以更少的能量消耗与深度神经网络有可比较的结果,并且这样的脉冲神经网络比深度神经网络更鲁棒抵御对抗性攻击。
Jun, 2024
连续脉冲图神经网络(COS-GNN)是一个统一框架,将脉冲神经网络与连续图神经网络相结合,利用高阶结构和脉冲表示进行连续传播,以增强信息保留并捕捉节点之间的长程依赖。实验结果表明,COS-GNN 在图学习任务中比竞争对手具有更好的效果。
Apr, 2024
我们提出了一种基于图的神经脉冲网络结构来进行多通道脑电图分类的方法(Graph Spiking Neural Network architecture for multi-channel EEG classification)。相较于目前最先进的 SNN(Spiking Neural Network),我们的方法提高了计算效率,降低了计算复杂度,并在运动执行分类任务中取得了与当前方法相当的准确性。
Apr, 2023
提出了 Spatial Graph Convolutional Network (SGCN) 来改进 Graph Convolutional Networks (GCNs),SGCN 利用了空间特征来有效地学习从自然定位的图形中,经过实验证明,SGCN 优于现有的图形方法在图像分类和化学任务上的表现。
Sep, 2019
本文介绍了一种使用新颖代理梯度和可调谐自适应尖峰神经元的循环网络,将基于脉冲的神经网络的性能提高至具有挑战性的时间域基准的最新水平,并展示了这些 SNN 的计算效率比具有可比性能的 RNN 高出一到三个数量级,从而使 SNN 成为 AI 硬件实现的有吸引力的解决方案。
Mar, 2021
本研究提出了一种新的图形对比学习框架 SpikeGCL,用于学习二元 1 位表示来实现在效率和性能之间的平衡,在近 32 倍表示存储压缩的同时,SpikeGCL 在多个图形基准测试中要么与其全精度对应物相当,要么优于多种最先进的监督和自监督方法。
May, 2023
本研究提出了一个基于神经脉冲的建模框架,使得 SNN 网络可以直接应用于处理图形数据。通过空时展开的神经脉冲数据流,我们将图形卷积滤波器与神经脉冲动力学相结合,并提出了一种适用于 SNN 的空时特征归一化技术 (STFN),并将其实例化为两个脉冲图形模型。在三个节点分类基准上验证了我们的模型的性能,包括 Cora,Citeseer 和 Pubmed。实验结果表明,我们的方法与现有的图神经网络 (GNN) 模型相比具有可比性,但计算成本明显更低,可以在神经形态硬件上得到很好的应用。
Jun, 2021