防御性近似计算:使用近似计算保护卷积神经网络
使用近似乘法器探索深度神经网络针对对抗攻击的鲁棒性改善,将准确的乘法器替换为近似乘法器在 DNN 层模型中,探索了 DNN 在可行时间内针对各种对抗攻击的鲁棒性,结果显示在无攻击情况下由于近似乘法产生了最高 7% 的准确度下降,而在攻击时,鲁棒准确度提高了最多 10%
Apr, 2024
通过引入一种启发式方法来扰动输出概率,我们提出了一种简单而有效的防御措施,可轻松集成到模型中,不需要额外的训练,并且对模型性能影响小,在防御三种最先进的盗窃攻击方面表现出色,对于针对边缘设备的量化卷积神经网络同样有效。
Sep, 2023
本文提出了一种在黑盒恶意软件分类器上近似模型的最佳努力对抗逼近策略,使用特征表示映射和跨领域可转移性,通过局部训练替代模型,使用不同特征类型进行目标模型的逼近,本方法对两种黑盒分类器进行了评估。
Jun, 2020
通过利用深度卷积神经网络生成对抗性样本,然后比较不同的生成技术在产生图像质量和测试机器学习模型鲁棒性方面的差异,最后在跨模型对抗迁移上进行了大规模实验,研究结果表明对抗性样本在相似的网络拓扑间是可传递的,并且更好的机器学习模型更不容易受到对抗性样本的攻击。
Oct, 2016
本文分析了不同结构参数和逼近级别下,近似 SNN 在两种梯度和两种神经攻击下的稳健性,并提出了两种新颖的防御方法,即精度缩放和逼近量化感知滤波(AQF),证明了 AQF 和精度缩放显著提高了 AxSNNs 的稳健性。
Jan, 2023
本文通过经验研究,在对抗训练的模型中发现了分类的精度和稳健性存在类间差异,包括在通常的训练模型中也存在差异。同时,本文还探讨了解决这种类间差异的可能技术和方法。
Oct, 2020
本文提出 Ristretto,一种模型逼近框架,可以使用固定点算术和表示来压缩卷积和全连接层的权重和输出,并且可以通过微调将结果定制到具体的硬件设备,成功地将 CaffeNet 和 SqueezeNet 压缩到 8 位。
Apr, 2016
本文提出了一种基于实践观察的新的防御方法,旨在强化深度神经网络的结构,提高其预测稳定性,从而更难受到针对性攻击,并在多种攻击实验中证明了该方法的有效性,相比其他防御方法具有更好的表现,而且在训练过程中的开销几乎可以忽略不计。
Jul, 2017
通过使用少量的样本,本研究提出了三种机制进行训练,其中原型重建是最有效的,生成的对抗性样本可成功地转移至各种图像分类和面部验证模型,最终的应用结果显示我们的方法能够显著降低商业名人识别系统的预测准确率近 15.4%。
Dec, 2020