通用扰动基于密钥控制的数据隐藏
本文研究了深度神经网络分类器,发现存在普适的微小扰动对所有图像都造成高概率的错误分类,并提出了计算普适扰动的系统算法,证明现有神经网络非常容易受到该扰动攻击,从而出现对人眼几乎无法察觉的误分类。我们为了进一步探究这些扰动,对多个神经网络进行了实证分析并发现它们具有良好的通用性,揭示了分类器高维决策边界之间的重要几何相关性,并指出任何攻击者都可以在输入空间中利用这些单方向的存在来破坏大多数自然图像的分类器带来潜在的安全隐患。
Oct, 2016
本文提出了一种新的数据独立方法,可生成用于对象识别训练的多个CNN的图像无关扰动,这些扰动显示出令人惊讶的可转移性和印迹性能,并没有要求攻击者访问训练数据。
Jul, 2017
本文提出了一个Perturbation Rectifying Network (PRN)框架,通过学习实际和合成的图像通用扰动,和在PRN的输入和输出差异的离散余弦变换上独立训练的检测器,从而有效地保护深度学习网络免受任何图像的通用对抗性扰动的影响。
Nov, 2017
该论文提出了一种基于线性函数和神经网络参数计算类特定通用对抗扰动的算法,能使大部分相同类别的图像被错误分类,同时没有训练数据和超参数,并在ImageNet上获得了34%到51%的欺骗率并跨模型传递。研究表明,标准和针对对抗性训练模型所学习的决策边界特征也会影响通用对抗扰动。
Dec, 2019
本文提出了一种新的通用对抗攻击框架GUAP,通过非加性扰动或加性扰动,或两者的组合来发起攻击,实验表明该框架在CIFAR-10和ImageNet数据集上可以达到比当前先进通用对抗攻击方法高达15%和19%的攻击成功率。
Oct, 2020
利用傅里叶分析的方法,我们从任务特定和联合分析的角度,揭示频率分布和高频内容对深度学习模型的鲁棒性和发现模型广泛化有深层次的影响。我们还提出了两种新的万能扰动:同时达到攻击和隐藏的“通用秘密对抗扰动”(USAP)和对人眼不可见的“高通万能扰动”(HP-UAP)
Feb, 2021
本文综述了最近在图像分类任务中的UAPs的进展,并将其分类为噪声攻击和生成器攻击,并提供了每个类别中代表性方法的全面概述,同时还评估了不同的损失函数在一致的培训框架内的各种攻击设置的有效性,最后提供了扰动的一些可视化及未来的潜在研究方向。
Jun, 2023
本研究针对深度神经网络在身份验证和自动驾驶等关键应用中对抗攻击的脆弱性问题,提出了一种新的通用黑盒防御方法(DUCD),该方法不需访问目标模型的参数或结构。在多个图像分类数据集上的实验表明,DUCD不仅超越了现有的黑盒防御,还与白盒防御的准确性相当,同时增强了数据隐私并降低了成员推断攻击的成功率。
Aug, 2024