Aug, 2023

无注意力 Spikformer: 将脉冲序列与简单线性转换混合

TL;DR通过将自注意力能力和脉冲神经网络(SNNs)的生物特性相结合,Spikformer 将蓬勃发展的 Transformer 架构应用于 SNN 设计。它引入了脉冲自注意力(SSA)模块,使用脉冲形式的查询、键和值来混合稀疏视觉特征,与之前的类 SNN 框架相比,在许多数据集上呈现出最先进的性能。该论文证明了 Spikformer 架构可以通过将 SSA 替换为非参数化的线性变换(LT),如傅里叶和小波变换,来加速。这些变换被用于混合脉冲序列,将二次时间复杂度降低为对数线性时间复杂度。它们在频率和时间域之间交替提取稀疏视觉特征,展示了强大的性能和效率。我们在使用神经形态学和静态数据集进行图像分类方面进行了广泛的实验。结果表明,与具有 SSA 的最先进的 Spikformer 相比,具有 LT 的 Spikformer 在神经形态学数据集上实现了更高的 Top-1 准确率,并且在静态数据集上实现了可比较的 Top-1 准确率。此外,与需要可学习参数的 SSA 相比,具有 LT 的 Spikformer 实现了约 29%至 51%的训练速度提升,61%至 70%的推断速度提升,并且减少了 4%至 26%的内存使用量。