关于防御性蒸馏技术效果的研究
本研究介绍了一种防御机制,名为防御蒸馏,用于减少对深度神经网络的对抗样本的影响,并通过理论和实验证明了该机制在培训深度神经网络时具有通用性和鲁棒性。
Nov, 2015
这篇学术论文深入探讨了针对图像分类任务中使用的深度神经网络(DNN)的对抗性攻击,并调查了旨在增强机器学习模型鲁棒性的防御机制。研究聚焦于理解两种主要攻击方法的影响:快速梯度符号法(FGSM)和 Carlini-Wagner(CW)方法。该文献提出防御蒸馏作为一种抵御 FGSM 和 CW 攻击的防御机制,并使用 CIFAR-10 数据集对其进行评估。虽然该提出的防御技术在抵御 FGSM 等攻击方面表现出有效性,但依然易受到更复杂的技术,如 CW 攻击的影响。通过严格的实验和分析,该研究为对 DNNs 的对抗性攻击的动态以及防御策略的有效性提供了深入见解。
Apr, 2024
在这篇论文中,我们提出了一种统一框架 DiffAttack,用于对基于扩散的净化防御进行有效和高效的攻击,包括 DDPM 和基于分数的方法。我们通过在中间扩散步骤引入偏差重建损失来解决梯度消失 / 爆炸问题,提供了一种分段转发 - 反向传播算法,通过降低模型的稳健性减少了针对 CIFAR-10 和 ImageNet 的攻击的准确性。
Oct, 2023
本文介绍一种通过 JPEG 压缩技术的特征蒸馏方法来防御深度神经网络的对抗攻击,能够有效修正对抗样本,同时不影响正常图像分类准确性。实验结果表明,此方法在准确性、可用性和处理速度方面均有所提升。
Mar, 2018
本文提出了一种结合了防御蒸馏机制和去噪自动编码器(DAE)的新方法,旨在通过识别和重构有毒的对抗性输入来降低蒸馏模型对毒性攻击的敏感性从而防御深度神经网络 (DNNs) 的对抗性攻击。实验结果表明,该方法成功地识别和重构了有毒的输入,同时也增强了 DNN 的韧性,为各种数据暴露风险问题所困扰的应用提供了强大和稳健的防御机制。
Mar, 2023
本文研究知识蒸馏过程中,如何将教师神经网络的鲁棒性传递给学生神经网络,并提出一种称为 Adversarially Robust Distillation (ARD) 的方法。实验证明,采用 ARD 的学生模型在鲁棒性上的表现明显优于采用相同结构的敌对训练网络,并在标准鲁棒性基准测试中超越了当前最先进的方法。
May, 2019