通过多教师对抗蒸馏缓解精度 - 鲁棒性平衡
通过使用异构教师,我们以 DARHT 的方式开发了一种对抗攻击的防御框架,可以通过蒸馏具有低对抗性示例转移能力的异构教师来实现对抗鲁棒性,在白盒和黑盒方案下,DARHT 在 CIFAR-10、CIFAR-100 和 Tiny ImageNet 数据集上与竞争的对抗训练和蒸馏方法相比,实现了最先进的清洁和鲁棒性准确性。通过对异构教师集进行比较,我们发现利用具有低对抗性示例转移能力的教师可以提高学生模型的鲁棒性。
Feb, 2024
本文研究知识蒸馏过程中,如何将教师神经网络的鲁棒性传递给学生神经网络,并提出一种称为 Adversarially Robust Distillation (ARD) 的方法。实验证明,采用 ARD 的学生模型在鲁棒性上的表现明显优于采用相同结构的敌对训练网络,并在标准鲁棒性基准测试中超越了当前最先进的方法。
May, 2019
通过对软标签的平滑程度进行深入分析和理论分析,我们提出了一种反偏差软标签蒸馏(ABSLD)方法,以在知识蒸馏(KD)框架中减轻对手性鲁棒性公平问题,通过调整训练过程中样本的软标签的类别平滑程度来减少学生模型在不同类别之间的错误风险差距,软标签的平滑程度由在 KD 中为不同类别分配不同的温度来控制。大量实验表明,ABSLD 在鲁棒性和公平性的整体性能方面优于最先进的对手训练、对手鲁棒性蒸馏和公平性方法。
Dec, 2023
提出一种新的神经网络训练方法,叫做可靠的内省式敌对蒸馏(IAD),用于提高神经网络对抗攻击的能力。通过在不同情况下,对不同来源的标签进行部分可信任处理,以提高神经网络的稳定性。实验结果表明,IAD 在提高抗对抗性方面的效果显著。
Jun, 2021
通过在训练数据中结合稀疏输出与对抗样本,以增强教师模型对学生模型的防御,我们的研究引入了一种保护其输出的教师模型的方法,从而减少了对整体性能的影响。
Mar, 2024
本研究使用了知识蒸馏的概念来提高小模型的鲁棒性,旨在改善在存储或计算资源非常有限的情况下对小型模型的有效性。通过使用 Robust Soft Label Adversarial Distillation(RSLAD)来训练鲁棒的小学生模型,完全利用了由 Robust(对抗训练)大教师模型产生的鲁棒软标签来引导学生的学习。该方法在提高小型模型对 AutoAttack 等最先进攻击的鲁棒性方面表现出优异的效果,并为对抗鲁棒性蒸馏的 Robust Soft 标签的重要性提供了一组理解。
Aug, 2021
本文提出一种名为低温蒸馏(LTD)的方法,旨在生成所需的软标签以提高神经网络模型对抗性攻击的鲁棒性,实验结果表明,该方法与先前的工作结合能够在不使用额外的未标记数据的情况下,在 CIFAR-10 和 CIFAR-100 数据集上分别获得 57.72%和 30.36%的鲁棒准确性,平均改进了 1.21%的现有最新方法。
Nov, 2021