基于线性回归的中级攻击框架
本文提出了一种通过建立中间层次的线性映射以增强基线对抗样本的黑盒可迁移性的方法,实现了在 CIFAR-100 和 ImageNet 上的实验验证以及比之前的最新技术表现强大。
Aug, 2020
论文提出了一种名为 ILPD 的新方法,通过单一阶段的优化过程,鼓励中间层扰动同时具有有效的对抗方向和巨大的幅度,以构建对抗性样本。实验结果表明,该方法在攻击各种受害者模型方面的性能大大优于现有技术,其中在 ImageNet 上平均提高了 10.07%,在 CIFAR-10 上平均提高了 3.88%。
Apr, 2023
通过对线性回归模型进行测试时对抗攻击的影响研究,确定在保持给定水平的传统预测性能(准确性)的同时,任何模型可以达到的最佳鲁棒性水平。我们通过定量估计揭示了在不同情况下对抗鲁棒性和准确性之间的根本权衡。我们得到了一个精确的描述,可以区分可在不损害传统准确性的情况下实现鲁棒性的情况和可能不可避免的权衡的情况。我们的发现通过简单的实验在各种环境中经过实证验证。这项工作适用于任何特征协方差矩阵和攻击规范,扩展了此领域的先前工作。
Aug, 2023
本文提出了一种新的黑盒对抗攻击方法,通过使用预训练模型学习低维嵌入,然后在此嵌入空间内进行高效搜索,从而攻击未知目标网络。该方法能够生成具有高级语义模式的对抗性扰动,易于迁移,可大大提高黑盒对抗攻击的查询效率。作者在 MNIST、ImageNet 和 Google Cloud Vision API 上进行评估,并在 CIFAR10 和 ImageNet 上攻击对抗性防御网络,取得了良好的攻击效果。
Nov, 2019
对机器学习模型的黑盒攻击是可能的,即使它们的结构不同。通过生成对抗性样本,并利用受害者模型标记合成训练集,攻击者可以训练出自己的替代模型,并将对抗性样本转移到受害者模型中实施攻击,该方法可以使用新的技术使攻击过程更加有效率,在 Amazon 和 Google 等公司的商业机器学习分类系统中展示了攻击的有效性。
May, 2016
通过引入全面的理论框架并提出新的对抗性攻击方法,本文对基于 LDM 的对抗性攻击进行了深入研究,通过严格的实验,证明该方法优于现有攻击方法,并能在不同的基于 LDM 的少样本生成流程中进行泛化,成为在新一代强大生成模型中可为暴露于数据隐私和安全风险中的人们提供更强大和高效的保护工具。
Oct, 2023
该研究提出了一种能量攻击的黑盒 L∞对抗攻击方法,无需梯度逼近,通过主成分分析提取出单位分量向量和特征值,并根据其特征值模拟对抗扰动的能量分布,在多个模型和数据集上达到了最先进的攻击效果
Sep, 2021