Mar, 2024
SpikeGraphormer:具有脉冲图注意力的高性能图Transformer
SpikeGraphormer: A High-Performance Graph Transformer with Spiking Graph
Attention
TL;DR我们提出了将SNNs与Graph Transformers相结合的新颖观点,并设计了一个Spiking Graph Attention (SGA)模块,通过稀疏加法和掩码操作取代矩阵乘法。我们的Spiking Graph Attention模块在大规模图上实现了全对节点交互,并且能够同时捕捉本地邻居。SpikeGraphormer比现有的方法在各种数据集上表现出色,在训练时间、推断时间和GPU内存成本等方面都有显著改进(比普通的self-attention低10-20倍)。它在跨领域应用(图像和文本分类)中也表现良好。