研究 Spiking Neural Networks(SNNs)和 Deep Neural Networks(DNNs)在对抗噪声方面的安全漏洞,并提出了一种新的黑盒攻击方法,考察了 SNNs 和 DNNs 之间在对抗性样本方面的差异,从而为研究 SNNs 的稳健性开辟了新的研究方向。
Feb, 2019
我们提出了一种通过 ANN-to-SNN 转换算法实现对深度 SNN 的鲁棒性训练的方法,该方法在后转换的鲁棒微调阶段,通过对 SNN 的层内发射阈值和突触连接权重进行敌对优化,以保持从预训练 ANN 传递的鲁棒性增益,实现了扩展性的鲁棒 SNN 训练方法。在考虑 SNN 的脉冲操作动力学的多个自适应敌对设置的实验评估中,我们的方法展示了一种具有低延迟的可扩展高鲁棒性深度 SNN 的最新解决方案。
Nov, 2023
本文研究了 SNN 的对抗鲁棒性,提出了一种新的白盒攻击方法 Auto SAGA,对 SNN 以及 CNN/ViT 模型均有很高的成功率。实验涵盖三个数据集和 19 种不同的分类器模型。
Sep, 2022
通过梯度稀疏化正则化提高脉冲神经网络 (SNNs) 的鲁棒性,将梯度稀疏性与对抗性扰动之间的差距最小化,改善 SNNs 的整体鲁棒性。
May, 2024
本文提出了新的 SNN 训练方法 S-IBP 和 S-CROWN,并在不同数据集和模型结构中证明了其有效性,最大攻击错误率下降 37.7%,原始准确率下降 3.7%,这是关于 SNN 训练的首次分析。
Apr, 2022
本文研究低延迟深度脉冲神经网络克服对抗攻击的训练算法,通过在输入层引入精心设计的噪声,已有的模型仅需进行微调即可达到防御攻击的效果,同时在分类性能、时延和计算能耗方面表现出色。
Oct, 2021
通过对比常规 VGG-9 人工神经网络和等效的 Spiking Neural Network 之间在白盒和黑盒情况下对不同类型单步和多步 FGSM(快速梯度符号法)攻击的准确度降低,证明 SNN 对黑盒攻击更具有韧性。 此外,研究发现 SNN 的鲁棒性很大程度上取决于相应的训练机制。 最后,提出了一个简单而有效的框架,用于从 SNN 中制造对抗性攻击。
May, 2019
提高深度神经网络(DNN)加速器的硬件效率,例如采用量化和稀疏增强技术,显示了巨大的潜力。然而,在非理想的现实环境(例如存在硬件故障)中,它们的推理准确性尚未被系统地分析。本文研究了存储器故障对激活稀疏量化 DNN(AS QDNN)的影响,发现激活稀疏度较高会增加故障的脆弱性,导致 AS QDNN 的准确性比标准 QDNN 低达 11.13%。基于这一观察,我们采用了锐度感知量化(SAQ)训练以缓解存储器故障的影响,结果表明使用 SAQ 训练的 AS QDNN 和标准 QDNN 相比于传统训练方法,推理准确性分别提高了 19.50% 和 15.82%。此外,我们还表明 SAQ 训练的 AS QDNN 在故障环境中比传统训练方法的标准 QDNN 具有更高的准确性。因此,锐度感知训练可以在实现稀疏相关的延迟优势的同时保持容错性。
Jun, 2024
我们介绍了一种轻量级和硬件友好的量化 SNN(Q-SNN),该方法对突触权重和膜电位进行量化,显著减少内存使用和计算复杂性,提出了一种受信息熵理论启发的新的权重 - 脉冲双重调节(WS-DR)方法,实验证明我们的 Q-SNN 在模型大小和准确性方面优于现有方法,这些在效率和功效方面的最新成果表明该方法可以显着改善边缘智能计算。
该研究探讨使用全局故障注入攻击和外部电源以及激光光束的影响来破坏普通模拟神经元上孢发挥关键作用的参数。在针对数字分类任务时,最坏情况下可能导致分类准确性降低 85.65%,并提出了相应的防御策略和检测系统。