Mar, 2024

SpikeGraphormer:具有脉冲图注意力的高性能图 Transformer

TL;DR我们提出了将 SNNs 与 Graph Transformers 相结合的新颖观点,并设计了一个 Spiking Graph Attention (SGA) 模块,通过稀疏加法和掩码操作取代矩阵乘法。我们的 Spiking Graph Attention 模块在大规模图上实现了全对节点交互,并且能够同时捕捉本地邻居。SpikeGraphormer 比现有的方法在各种数据集上表现出色,在训练时间、推断时间和 GPU 内存成本等方面都有显著改进(比普通的 self-attention 低 10-20 倍)。它在跨领域应用(图像和文本分类)中也表现良好。