本文介绍了一种使用程序噪声函数生成通用对抗扰动 (Universal Adversarial Perturbations,UAPs) 的方法,发现常见 DCN 模型(如 Inception v3 和 YOLO v3)具有系统漏洞,同时提出使用贝叶斯优化来构建廉价的非针对性黑盒攻击。此外,还探讨了采用输入不可知防御方法增加模型对抗扰动的稳定性,并指出 DCN 模型可能对底层类不可知特征的聚合敏感,这些结果为通用对抗扰动类型提供了启示和生成思路。
Sep, 2018
本文综述了最近在图像分类任务中的 UAPs 的进展,并将其分类为噪声攻击和生成器攻击,并提供了每个类别中代表性方法的全面概述,同时还评估了不同的损失函数在一致的培训框架内的各种攻击设置的有效性,最后提供了扰动的一些可视化及未来的潜在研究方向。
Jun, 2023
该论文介绍了一个新的深度学习模型,称为 Gabor 卷积网络(GCNs),它将 Gabor 滤波器结合到深度卷积神经网络(DCNNs)中以增强对方向和尺度变换的抵抗力,并实现了在对象识别中的超大类能力,并减少网络参数。
May, 2017
本文介绍了一种生成网络 —— 通用对抗网络,它可以在数据集中添加生成输出并欺骗目标分类器,从而提高通用对抗攻击的效果。
Aug, 2017
本文提出了一种针对深度网络易受对抗扰动攻击的问题的方法,使用预训练网络生成图像无关对抗扰动(UAPs),并通过在源模型的第一层仅关注对抗能量的损失,提高了 UAPs 的传递性,并在实验中展示了该方法的优越性。
Oct, 2020
本文研究了深度神经网络分类器,发现存在普适的微小扰动对所有图像都造成高概率的错误分类,并提出了计算普适扰动的系统算法,证明现有神经网络非常容易受到该扰动攻击,从而出现对人眼几乎无法察觉的误分类。我们为了进一步探究这些扰动,对多个神经网络进行了实证分析并发现它们具有良好的通用性,揭示了分类器高维决策边界之间的重要几何相关性,并指出任何攻击者都可以在输入空间中利用这些单方向的存在来破坏大多数自然图像的分类器带来潜在的安全隐患。
Oct, 2016
本文提出了一个 Perturbation Rectifying Network (PRN) 框架,通过学习实际和合成的图像通用扰动,和在 PRN 的输入和输出差异的离散余弦变换上独立训练的检测器,从而有效地保护深度学习网络免受任何图像的通用对抗性扰动的影响。
Nov, 2017
本文研究了针对采用深度学习的生物特征识别系统的攻击方法,并证明了普适性对抗扰动的存在。我们提出了一种生成网络,通过学习低维正态分布与普适性对抗扰动的映射关系,将其应用于扰动输入信号以欺骗训练有素的说话人识别模型,并在 TIMIT 和 LibriSpeech 数据集上的实验结果表明了我们模型的有效性。
Apr, 2020
通过研究深卷积网络的灵敏度,我们发现傅里叶基函数方向上的微小改变可以导致网络准确率下降,这是一种有潜在安全风险的现象,然而这种有害扰动的共享方向特征仍然未知。鉴于对其性质的探究,我们针对黑盒模型提出了一个通用算法,可以生成具有位移不变性的通用对抗扰动。
研究表明,即使没有内部知识,对深度卷积神经网络进行黑盒攻击并制造对抗性样本是可行的,这暴露了深度神经网络的弱点,为设计安全的网络提供了检验。
Dec, 2016