对抗鲁棒神经网络的权重 - 协方差对齐
我们提出了一种通过 ANN-to-SNN 转换算法实现对深度 SNN 的鲁棒性训练的方法,该方法在后转换的鲁棒微调阶段,通过对 SNN 的层内发射阈值和突触连接权重进行敌对优化,以保持从预训练 ANN 传递的鲁棒性增益,实现了扩展性的鲁棒 SNN 训练方法。在考虑 SNN 的脉冲操作动力学的多个自适应敌对设置的实验评估中,我们的方法展示了一种具有低延迟的可扩展高鲁棒性深度 SNN 的最新解决方案。
Nov, 2023
本文提出了新的 SNN 训练方法 S-IBP 和 S-CROWN,并在不同数据集和模型结构中证明了其有效性,最大攻击错误率下降 37.7%,原始准确率下降 3.7%,这是关于 SNN 训练的首次分析。
Apr, 2022
本文研究低延迟深度脉冲神经网络克服对抗攻击的训练算法,通过在输入层引入精心设计的噪声,已有的模型仅需进行微调即可达到防御攻击的效果,同时在分类性能、时延和计算能耗方面表现出色。
Oct, 2021
通过对比常规 VGG-9 人工神经网络和等效的 Spiking Neural Network 之间在白盒和黑盒情况下对不同类型单步和多步 FGSM(快速梯度符号法)攻击的准确度降低,证明 SNN 对黑盒攻击更具有韧性。 此外,研究发现 SNN 的鲁棒性很大程度上取决于相应的训练机制。 最后,提出了一个简单而有效的框架,用于从 SNN 中制造对抗性攻击。
May, 2019
本篇论文提出了一种名为 Adversarial Noise Propagation 的训练算法,将噪声注入隐藏层以提高深度模型的鲁棒性,并证明不同的隐藏层对模型鲁棒性和整洁的准确性有不同的贡献。该算法可有效地与其他对抗性训练方法相结合,进一步提高模型的鲁棒性。在 MNIST、CIFAR-10、CIFAR-10-C、CIFAR-10-P 和 ImageNet 上的广泛实验表明,ANP 实现了深度模型对对抗性和受损数据均具有强大的鲁棒性,并明显优于各种对抗性防御方法。
Sep, 2019
本研究提出了基于像素噪声分布和卷积神经网络生成器的各向异性随机光滑方法,以确保可证明鲁棒性保证,并取得了显著的性能优于现有随机平滑方法的实验结果。
Jul, 2022
通过采用基于神经稳态的解决方案,本研究提出了一种新型的对抗性鲁棒稳态脉冲神经网络(HoSNN),利用阀值自适应泄漏积分火(TA-LIF)神经元模型来抵御脉冲神经网络(SNNs)对抗性攻击的易感性。在理论分析中,我们阐明了 TA-LIF 神经元的稳定性和收敛性,突显了相对于传统 LIF 神经元,在输入分布变化下其优越的动态鲁棒性。令人惊讶的是,即使在没有显式对抗训练的情况下,我们的 HoSNN 在 CIFAR-10 上展示了固有的鲁棒性,对 FGSM 和 PGD 攻击准确率分别提高到 72.6%和 54.19%,分别相对于之前的 20.97%和 0.6%。此外,通过最小程度的 FGSM 对抗训练,我们的 HoSNN 在 CIFAR-10 上对 FGSM 攻击和 PGD 攻击的准确率分别超过了以往模型的 29.99%和 47.83%。我们的发现为加强 SNNs 的对抗鲁棒性及防御提供了一种新的生物学原理视角,为更具弹性的神经形态计算铺平了道路。
Aug, 2023
本文提出了一种 Parametric-Noise Injection (PNI) 技术,使用可训练的高斯噪声注入到神经网络的不同层中,解决 min-max 优化问题,通过对抗训练来提高网络的鲁棒性,实验表明该方法能有效提高对抗攻击下的网络鲁棒性。
Nov, 2018
本文分析了不同结构参数和逼近级别下,近似 SNN 在两种梯度和两种神经攻击下的稳健性,并提出了两种新颖的防御方法,即精度缩放和逼近量化感知滤波(AQF),证明了 AQF 和精度缩放显著提高了 AxSNNs 的稳健性。
Jan, 2023