利用目标样本的样式和内容信息以及其类边界信息创建对抗性扰动,将其应用于多任务目标并进行深度监督,提取多尺度特征知识以创建最大分离对手,随后提出最大间隔对抗训练方法,最小化源图像与其对手之间的距离,并最大化对手和目标图像之间的距离,证明与最先进的防御相比,我们提出的对抗训练方法表现出强大的鲁棒性,对自然出现的损坏和数据分布变化具有良好的泛化能力,并保留了模型在干净样本上的准确性。
Jul, 2020
通过谱分析来检查样本特征的子空间,我们首先从实证角度表明干净信号或对抗扰动的特征分别是冗余的,而且在低维线性子空间中重叠较少,并且经典的低维子空间投影可以将扰动特征压缩到干净信号的子空间之外,从而使得深度神经网络可以学习一个只包含干净信号特征的子空间,抛弃扰动特征,从而能够区分对抗性样本。为了防止子空间学习中不可避免的残余扰动,我们提出一种独立性准则来区分干净信号和扰动。实验结果表明,所提出的策略能够本质上抑制对抗者,不仅提高了模型的鲁棒性,而且还给出了有效对抗防御的新方向。
Mar, 2024
通过在特征表示上进行对抗攻击,使用语义相似性对分类器进行攻击,同时使用低频率约束,保证对抗样本和原始样本的感官相似性和跨数据集泛化。
Mar, 2022
通过计算基于 l2,1 范数的优化算法,我们在 CNN + RNN 网络中使用传播来计算视频的稀疏对抗扰动,即只需扰动视频中的一帧,即可使 DNN 的错判率可达 59.7%。
Mar, 2018
本研究通过生成精心设计的负样本,表明对比学习可以学习到更具有鲁棒性的表示,减少对低级特征的依赖,而我们通过纹理和面板增强的方式生成负样本,在特定的 ImageNet 数据集上分类时表现出一定的可行性
Oct, 2021
通过对比自监督学习与 supervised learning 在对抗鲁棒性上的表现,本文发现 contrastive self-supervised learning 的数据表示倾向于在单位超球面上均匀分布,这导致其比 supervised learning 更容易受到干扰,作者提出了一种有效的方法来检测与消除训练中的 false negative pairs,并将其应用于对比自监督学习中,成功缩小了对抗鲁棒性方面与 supervised learning 之间的差距,提高了模型的性能。
Jul, 2022
该论文通过对比正负样本来缓解序列到序列模型中的条件文本生成问题,通过生成正负样本来引导模型更好地区分正确的输出和错误的输出,并提出了一种原则性的方法来生成正负样本,改进了机器翻译、文本摘要和问题生成等三个文本生成任务的泛化能力。
Dec, 2020
本文介绍了一种自监督学习方法,以学习音频和视频表征,并通过行动识别任务的实验验证了其解决音频 - 视觉实例区别问题和提高迁移学习性能的贡献。
Mar, 2021
针对深度神经网络易受对抗性攻击的问题,本文提出了一种基于特征重构的防御方法,具体来说,通过将每个类别的特征强制限制在一个凸多面体内,使得网络学习到的决策区域更加独特和远离各个类别的边界,提高了网络的鲁棒性,同时在干净图像的分类性能上不会退化。
Apr, 2019
该研究提出了新型生成模型,用于制造近似自然图像但又能欺骗先前训练好的模型的略微扰动的对抗性样本。通过在具有挑战性的高分辨率数据集上的实验,它证明了这种扰动具有高弄虚率和较小的扰动规模,并且比当前的迭代方法更快。
Dec, 2017