深度神经网络的关键问题之一是对抗性攻击和转移性,考虑到安全性和未来的发展,需要加强对抗性漏洞的防御。
Oct, 2023
本研究首次证明存在领域不变的对抗性攻击,提出了一个用于在不同领域中高度转移的攻击框架,核心是一个可生成网络,具有相对论监督信号,能够实现领域不变的扰动。该方法在白盒和黑盒情况下均创新了欺骗率的最佳性能,并且尽管它是一个无实例特定扰动的函数,但优于传统上更强的实例特定攻击方法。
May, 2019
该研究提出了一种新的对抗样本攻击方法,考虑到人类感知系统并最大化制作的对抗样本的噪声容忍度,实验结果证明了该技术的有效性。
Jan, 2018
本文系统研究了影响对抗样本传递性的两类因素,包括网络结构、测试精度等模型特定因素和构建对抗样本的损失函数的局部光滑性。基于这些理解,提出了一种简单而有效的策略来增强传递性,称为方差降低攻击,因为它利用方差降低梯度来生成对抗样本,实验结果表明其有效性。
Feb, 2018
通过研究和比较多种神经网络,本文发现随着图片识别准确度的提高,对抗性攻击虽然越来越容易使模型改变分类决策,但同时攻击的特征也越来越远离与人类视觉识别相关的特征,即使人工以同样方式造成的影响。而通过神经协调器网络的训练,可以使神经网络更加接近人类视觉识别应有模式,从而提高对抗性攻击下的鲁棒性。
Jun, 2023
研究表明,即使没有内部知识,对深度卷积神经网络进行黑盒攻击并制造对抗性样本是可行的,这暴露了深度神经网络的弱点,为设计安全的网络提供了检验。
Dec, 2016
本文提出了一种翻译不变攻击方法,该方法利用一个翻译图像集合上的扰动以生成更易于转移的对抗示例,并表明该方法通常适用于任何梯度攻击方法。作者在 ImageNet 数据集上广泛实验验证了该方法的有效性,并证明该攻击技术的存在不安全性。
Apr, 2019
本文使用一种名为对抗性样本的设计,产生一个可以同时攻击深度神经网络的通用攻击,包括目标攻击,通用攻击以及可转移攻击。
Aug, 2019
通过利用深度神经网络对图像高频分量的扰动的脆弱性,我们提出了一种新方法来生成可转移的有针对性对抗样本,该方法通过训练条件生成器生成针对性的对抗扰动,并将其添加到图像的低频分量中,实验证明我们的方法显著优于现有的方法,将有针对性攻击成功率提高了 3.2% 至 15.5%。
本研究提出一种称为 StyLess 的对抗攻击方法,通过使用包含不同风格特征的样式化网络,以及利用自适应实例标准化来编码不同的风格特征,从而生成具有可转移性的扰动,以此提高对抗样本的攻击传递能力,并在与其他攻击技术结合时优于现有的攻击方法。
Apr, 2023