概率脉冲神经网络的对抗训练
通过对比常规 VGG-9 人工神经网络和等效的 Spiking Neural Network 之间在白盒和黑盒情况下对不同类型单步和多步 FGSM(快速梯度符号法)攻击的准确度降低,证明 SNN 对黑盒攻击更具有韧性。 此外,研究发现 SNN 的鲁棒性很大程度上取决于相应的训练机制。 最后,提出了一个简单而有效的框架,用于从 SNN 中制造对抗性攻击。
May, 2019
本文提出了新的 SNN 训练方法 S-IBP 和 S-CROWN,并在不同数据集和模型结构中证明了其有效性,最大攻击错误率下降 37.7%,原始准确率下降 3.7%,这是关于 SNN 训练的首次分析。
Apr, 2022
我们提出了一种通过 ANN-to-SNN 转换算法实现对深度 SNN 的鲁棒性训练的方法,该方法在后转换的鲁棒微调阶段,通过对 SNN 的层内发射阈值和突触连接权重进行敌对优化,以保持从预训练 ANN 传递的鲁棒性增益,实现了扩展性的鲁棒 SNN 训练方法。在考虑 SNN 的脉冲操作动力学的多个自适应敌对设置的实验评估中,我们的方法展示了一种具有低延迟的可扩展高鲁棒性深度 SNN 的最新解决方案。
Nov, 2023
本文研究了 SNN 的对抗鲁棒性,提出了一种新的白盒攻击方法 Auto SAGA,对 SNN 以及 CNN/ViT 模型均有很高的成功率。实验涵盖三个数据集和 19 种不同的分类器模型。
Sep, 2022
本文介绍了一种使用新颖代理梯度和可调谐自适应尖峰神经元的循环网络,将基于脉冲的神经网络的性能提高至具有挑战性的时间域基准的最新水平,并展示了这些 SNN 的计算效率比具有可比性能的 RNN 高出一到三个数量级,从而使 SNN 成为 AI 硬件实现的有吸引力的解决方案。
Mar, 2021
本论文探讨了脉冲神经网络在语义分割方面的应用,通过替代全连接层和使用替代梯度学习方法,将基本的全卷积网络和 DeepLab 架构重构为 SNN 域的网络。实验表明,相较于 ANN 网络,SNN 网络在这个领域更加稳健和节能。
Oct, 2021
本文研究低延迟深度脉冲神经网络克服对抗攻击的训练算法,通过在输入层引入精心设计的噪声,已有的模型仅需进行微调即可达到防御攻击的效果,同时在分类性能、时延和计算能耗方面表现出色。
Oct, 2021
研究 Spiking Neural Networks(SNNs)和 Deep Neural Networks(DNNs)在对抗噪声方面的安全漏洞,并提出了一种新的黑盒攻击方法,考察了 SNNs 和 DNNs 之间在对抗性样本方面的差异,从而为研究 SNNs 的稳健性开辟了新的研究方向。
Feb, 2019
本文介绍了潜在的对抗攻击抗干扰能力强的脉冲神经网络(SNN),以及研究表明使用 Poisson 编码器的输入离散化和 Leaky-Integrate-Fire (LIF) 神经元的泄漏率增加可提高其在 CIFAR 数据集上的对抗准确性。
Mar, 2020