稳健代理:通过稳健代理学习提高对抗性稳健性
本研究表明,鲁棒优化可以被重新定义为对深度神经网络学习特征的先验约束,经过鲁棒模型学习的特征表示方法能够解决标准神经网络表示方法的缺陷,并显著提高了高水平的输入编码能力。同时,这些特征表示方法具有相对可逆性,允许直接可视化和操纵输入的显著特征,提示使用对抗性鲁棒性来改善学习表示方法的可行性。
Jun, 2019
使用生成模型学习的代理分布来提高深度神经网络的鲁棒性,并提出了一种鲁棒区分方法,证明了采用扩散基生成模型作为代理分布比生成式对抗网络更优越。
Apr, 2021
利用目标样本的样式和内容信息以及其类边界信息创建对抗性扰动,将其应用于多任务目标并进行深度监督,提取多尺度特征知识以创建最大分离对手,随后提出最大间隔对抗训练方法,最小化源图像与其对手之间的距离,并最大化对手和目标图像之间的距离,证明与最先进的防御相比,我们提出的对抗训练方法表现出强大的鲁棒性,对自然出现的损坏和数据分布变化具有良好的泛化能力,并保留了模型在干净样本上的准确性。
Jul, 2020
针对深度神经网络易受对抗性攻击的问题,本文提出了一种基于特征重构的防御方法,具体来说,通过将每个类别的特征强制限制在一个凸多面体内,使得网络学习到的决策区域更加独特和远离各个类别的边界,提高了网络的鲁棒性,同时在干净图像的分类性能上不会退化。
Apr, 2019
通过分析正常和对抗攻击样本的深度神经网络表示之间的差异,研究了对抗攻击的鲁棒性和现有防御机制的普适性,并揭示了 L2 和 Linfinity 范数之间的显著差异。
Aug, 2023
本文提出了特征纯化原则,表明在神经网络训练期间,小密集混合物的积累是存在对抗性示例的一个原因,并且对抗性训练的一个目标是通过去除这些混合物来净化神经网络的隐藏权重。
May, 2020
通过分离鲁棒特征和领域特定特征,我们提出了一个鲁棒特征分离模型,以增强模型的对抗性鲁棒性。同时,训练出的领域鉴别器几乎完美地能够识别出干净图像和对抗性样本中的领域特定特征,从而无需额外的计算成本实现对抗性样本的检测。这样一来,我们可以为干净图像和对抗性样本指定不同的分类器,避免了干净图像准确率的降低。
Sep, 2023
通过使用师生模型结构,利用投影头将错误的监督从教师转移到学生,以改善自我监督 - 对抗训练中存在的性能差距,并通过增加训练数据的多样性来提高模型的干净和鲁棒准确性。
Jun, 2024