低位宽量化对嵌入式神经网络对抗鲁棒性的影响
通过对 ImageNet 上的广泛实验,我们发现量化技术在部署深度神经网络时,虽然对于对抗性攻击具有更高的稳健性,但更容易受到自然噪声和系统噪声等噪声的影响。特别的,脉冲噪声和最邻近插值对量化模型影响最大,我们的研究有助于进一步提升模型的稳健性,使其能够在真实场景中部署应用。
Apr, 2023
在这篇论文中,我们首次对 Post-Training Quantization 和 Quantization-Aware Training 的设置下,能够将鲁棒性优化纳入其中的量化流水线组件的影响进行了深入研究分析。通过我们的详细分析,我们发现不同研究中使用的不同流水线导致了这种不一致性,具体涉及是否执行鲁棒优化以及在哪个量化阶段执行。我们的研究结果为部署更安全、更鲁棒的量化网络提供了洞察,帮助从业者在高安全要求和有限资源的情况下进行参考。
Apr, 2024
通过对 ImageNet 上的各种噪声(对抗性攻击、自然扰动和系统噪声)进行了全面评估,我们得出了关于量化模型在各种场景下的鲁棒性的宝贵见解:(1)量化模型在对抗性鲁棒性方面表现更好,但对自然扰动和系统噪声更加脆弱;(2)一般来说,增加量化位宽会导致对抗性鲁棒性降低,自然鲁棒性增强,系统鲁棒性增加;(3)在扰动方法中,由 extit {脉冲噪声} 和 extit {玻璃模糊} 对量化模型的影响最大,而 extit {亮度} 的影响最小;(4)在系统噪声中, extit {最近邻插值} 的影响最大,而双线性插值、立方插值和区域插值的影响最小。我们的研究推动了模型的鲁棒量化及其在实际场景中的部署。
Aug, 2023
该研究旨在解决如何创建可部署在资源受限的嵌入式设备上的精确、稳健、小型的深度神经网络模型的挑战,并报告了使用自动量化感知训练框架 QKeras 训练的鲁棒性小型 DNN 模型的结果,该模型稳健性能显著优于现有基准测试。
Apr, 2023
利用低精度的神经网络进行量化,可以通过减少内存消耗和优化位运算实现更高的效率。本文提出低精度神经网络的第三个优点是在一些对抗攻击中有更好的鲁棒性,最坏情况下的表现也可以与高精度模型媲美。作者着重于量化权重和激活到 +-1 的非缩放二进制神经网络,在黑盒和白盒实验中探究其应对逐步攻击的能力。该方法可以在不人为掩盖梯度的情况下保证模型的安全性。
Nov, 2017
本文研究了神经网络量化模型的鲁棒性问题,并发现其在面对基于梯度的对抗攻击时存在梯度消失的问题,提出一种简单的温度缩放方法以减轻该问题,该方法在多个数据集与网络结构上表现出比现有方法更好的性能表现。
Mar, 2020
本文提出了一种基于理论论证的神经网络量化方法,实现了针对多种数据类型和量化策略下模型鲁棒性的内在鲁棒性,能够存储一种通用模型并在不同的位宽和量化策略下进行操作,并在不同的 ImageNet 模型中验证了该方法的有效性。
Feb, 2020
边缘计算和微控制器 (MCUs) 上的量化和对抗示例在深度边缘上的有效性进行了实证评估。量化增加了决策边界的点距离,并导致某些攻击估计的梯度爆炸或消失,同时量化能够增强或减弱噪声,导致梯度失调。尽管输入预处理防御在小扰动上效果显著,但在扰动增加时表现不佳,而基于训练的防御方法可以增加决策边界的平均点距,并且在量化后仍然有效,但我们认为基于训练的防御仍需解决量化偏移和梯度失调的问题以对抗对 QNNs 的敌对示例可迁移性。
Apr, 2024
深度神经网络在量化时不同位数的源网络与目标网络存在转移性,某些攻击类型能增强转移性,通过对网络的量化版本之间的攻击实例的平均转移性可以估计对不同容量和结构的量化目标网络的转移性。
May, 2024
本篇论文研究了深度神经网络的低精度模型的训练方法,探讨了在小型设备上训练深度神经网络的难点,提出了一种理论视角下的量化训练方法,并探索了非凸问题下的算法行为模型。
Jun, 2017