本研究介绍了一种防御机制,名为防御蒸馏,用于减少对深度神经网络的对抗样本的影响,并通过理论和实验证明了该机制在培训深度神经网络时具有通用性和鲁棒性。
Nov, 2015
防御性蒸馏并不安全,在面对有针对性的错误分类攻击时,其并没有比未经保护的神经网络更具抵抗力。
Jul, 2016
该项目研究深度神经网络中的对抗攻击并探讨防御性蒸馏的方法,提出通过引入辅助网络来改善蒸馏模型的鲁棒性,并通过实验证明该方法的有效性及其对模型准确性的影响。
May, 2023
本研究介绍了新型攻击算法,证明了防御蒸馏并不能显著提升神经网络的强度,提供了高置信度的对抗性样本用于简单的可迁移性测试,该测试可以用于破解防御蒸馏。
Aug, 2016
本文研究表明防御蒸馏成功地缓解了针对基于 Jacobian 的迭代攻击的防御机制所评估的对抗样本问题,同时也对那些使用快速梯度符号方法的对抗样本进行了有效的防御。
本文提出了一种结合了防御蒸馏机制和去噪自动编码器(DAE)的新方法,旨在通过识别和重构有毒的对抗性输入来降低蒸馏模型对毒性攻击的敏感性从而防御深度神经网络 (DNNs) 的对抗性攻击。实验结果表明,该方法成功地识别和重构了有毒的输入,同时也增强了 DNN 的韧性,为各种数据暴露风险问题所困扰的应用提供了强大和稳健的防御机制。
Mar, 2023
本文研究知识蒸馏过程中,如何将教师神经网络的鲁棒性传递给学生神经网络,并提出一种称为 Adversarially Robust Distillation (ARD) 的方法。实验证明,采用 ARD 的学生模型在鲁棒性上的表现明显优于采用相同结构的敌对训练网络,并在标准鲁棒性基准测试中超越了当前最先进的方法。
May, 2019
这篇论文提出了一种新的重建方法,利用扩散模型来保护机器学习分类器免受对抗攻击,而无需对分类器本身进行任何修改。
Sep, 2023
利用形式验证技术构建对抗样本,证明这些样本是最小扭曲的,从而增加了对抗性训练的鲁棒性。
Sep, 2017
通过在训练数据中结合稀疏输出与对抗样本,以增强教师模型对学生模型的防御,我们的研究引入了一种保护其输出的教师模型的方法,从而减少了对整体性能的影响。
Mar, 2024