本研究介绍了一种防御机制,名为防御蒸馏,用于减少对深度神经网络的对抗样本的影响,并通过理论和实验证明了该机制在培训深度神经网络时具有通用性和鲁棒性。
Nov, 2015
该项目研究深度神经网络中的对抗攻击并探讨防御性蒸馏的方法,提出通过引入辅助网络来改善蒸馏模型的鲁棒性,并通过实验证明该方法的有效性及其对模型准确性的影响。
May, 2023
防御性蒸馏并不安全,在面对有针对性的错误分类攻击时,其并没有比未经保护的神经网络更具抵抗力。
Jul, 2016
本研究探讨机器学习在面对对抗性示例时的弱点以及通过重新审视防御蒸馏来应对其挑战,旨在提高模型训练技术的重要性。
May, 2017
本文研究知识蒸馏过程中,如何将教师神经网络的鲁棒性传递给学生神经网络,并提出一种称为 Adversarially Robust Distillation (ARD) 的方法。实验证明,采用 ARD 的学生模型在鲁棒性上的表现明显优于采用相同结构的敌对训练网络,并在标准鲁棒性基准测试中超越了当前最先进的方法。
May, 2019
利用形式验证技术构建对抗样本,证明这些样本是最小扭曲的,从而增加了对抗性训练的鲁棒性。
Sep, 2017
本文提出了一种结合了防御蒸馏机制和去噪自动编码器(DAE)的新方法,旨在通过识别和重构有毒的对抗性输入来降低蒸馏模型对毒性攻击的敏感性从而防御深度神经网络 (DNNs) 的对抗性攻击。实验结果表明,该方法成功地识别和重构了有毒的输入,同时也增强了 DNN 的韧性,为各种数据暴露风险问题所困扰的应用提供了强大和稳健的防御机制。
Mar, 2023
该研究提出了一种新的对抗样本攻击方法,考虑到人类感知系统并最大化制作的对抗样本的噪声容忍度,实验结果证明了该技术的有效性。
Jan, 2018
该研究提出了一种测试方法以识别弱攻击和防御评估,为了增强透明和信心,将攻击单元测试作为未来强度评估的重要组成部分。
Jun, 2022
本文提出数据集重构攻击,并阐明该攻击的实现和特征,同时证明了数据集重构攻击与数据集蒸馏之间的关系,可通过蒸馏算法设计防御机制,以提高深度学习中保护隐私的能力。
Feb, 2023