量化模型强化测试
通过对 ImageNet 上的各种噪声(对抗性攻击、自然扰动和系统噪声)进行了全面评估,我们得出了关于量化模型在各种场景下的鲁棒性的宝贵见解:(1)量化模型在对抗性鲁棒性方面表现更好,但对自然扰动和系统噪声更加脆弱;(2)一般来说,增加量化位宽会导致对抗性鲁棒性降低,自然鲁棒性增强,系统鲁棒性增加;(3)在扰动方法中,由 extit {脉冲噪声} 和 extit {玻璃模糊} 对量化模型的影响最大,而 extit {亮度} 的影响最小;(4)在系统噪声中, extit {最近邻插值} 的影响最大,而双线性插值、立方插值和区域插值的影响最小。我们的研究推动了模型的鲁棒量化及其在实际场景中的部署。
Aug, 2023
本文采用经典监督图像分类任务,研究了在不同威胁模型下量化神经网络的对抗鲁棒性,结果表明,量化不能提供任何强大的保护性,并提出了关于量化值偏移现象和梯度不对齐的假设以及如何利用基于集成的防御性能。
Sep, 2019
在这篇论文中,我们首次对 Post-Training Quantization 和 Quantization-Aware Training 的设置下,能够将鲁棒性优化纳入其中的量化流水线组件的影响进行了深入研究分析。通过我们的详细分析,我们发现不同研究中使用的不同流水线导致了这种不一致性,具体涉及是否执行鲁棒优化以及在哪个量化阶段执行。我们的研究结果为部署更安全、更鲁棒的量化网络提供了洞察,帮助从业者在高安全要求和有限资源的情况下进行参考。
Apr, 2024
该研究旨在解决如何创建可部署在资源受限的嵌入式设备上的精确、稳健、小型的深度神经网络模型的挑战,并报告了使用自动量化感知训练框架 QKeras 训练的鲁棒性小型 DNN 模型的结果,该模型稳健性能显著优于现有基准测试。
Apr, 2023
本文提出了一种基于理论论证的神经网络量化方法,实现了针对多种数据类型和量化策略下模型鲁棒性的内在鲁棒性,能够存储一种通用模型并在不同的位宽和量化策略下进行操作,并在不同的 ImageNet 模型中验证了该方法的有效性。
Feb, 2020
本文详细研究量化模型的行为特征,通过考虑 4 个跨越图像到文本的数据集,8 种深度学习网络架构,以及包含合成和自然分布转移的 42 个转移集,揭示出在看不见的数据上的行为特征,同时指出量化训练可以产生更稳定的模型,$Margin$ 是 quantized 模型中不确定性度量的更好指标.
Apr, 2022
通过引入可微分的随机量化器,通过多个不同的量化神经网络学习输入图像的不同表示,提高量化过的深度神经网络对白盒对抗攻击的鲁棒性。在不同威胁模型上进行统一分析,通过相关性将互信息和准确率结合,检测攻击并生成鲁棒性图谱。
Nov, 2023
本文探讨了量化对基于 Transformer 模型的鲁棒性的影响,并通过对 BERT 和 DistilBERT 模型在文本分类中对 SST-2、Emotion 和 MR 数据集以及 TextFooler、PWWS 和 PSO 敌对攻击的评估,发现量化显著提高了模型的敌对准确性(提高平均 18.68%)。此外,与敌对训练方法相比,量化平均提高了 18.80% 的模型鲁棒性而无需额外的计算开销。因此,本研究结果强调了量化在提高 NLP 模型鲁棒性方面的有效性。
Mar, 2024
边缘计算和微控制器 (MCUs) 上的量化和对抗示例在深度边缘上的有效性进行了实证评估。量化增加了决策边界的点距离,并导致某些攻击估计的梯度爆炸或消失,同时量化能够增强或减弱噪声,导致梯度失调。尽管输入预处理防御在小扰动上效果显著,但在扰动增加时表现不佳,而基于训练的防御方法可以增加决策边界的平均点距,并且在量化后仍然有效,但我们认为基于训练的防御仍需解决量化偏移和梯度失调的问题以对抗对 QNNs 的敌对示例可迁移性。
Apr, 2024