本文提出了一种基于协作生成替代模型网络的无数据模型窃取框架 MEGA,该框架通过合成查询示例和预测标签来模拟目标模型,并且通过最大化替代模型的置信度来生成图像,实验表明,该框架所训练的替代模型和黑盒敌对攻击的成功率均比现有的数据无关的攻击方法高。
Jan, 2022
本文探究了 DNN 的黑盒攻击方案,使用现有的白盒攻击方法产生的采样样本进行训练替代模型,并提出主动学习策略和多样性准则以优化其表现,实验证明该方法可以将查询数量减少超过 90% 并保持黑盒攻击成功率。
Sep, 2018
本文提出了一种新的替代训练视角,着重于设计在知识窃取过程中使用的数据分布,提出了多样化的数据生成模块来综合宽泛的分布的大规模数据,并引入对接近决策边界的数据进行对抗替换训练策略,两个模块的结合可以进一步提高替代模型和目标模型的一致性,大大提高了对抗攻击的有效性。
Apr, 2021
本研究提出了一种元攻击方法,通过元学习的方法从以前观察到的攻击模式中学习可推广的先验抽象,并利用这样的先验信息,可以从很少的查询和输出中推断攻击模式,从而显着减少模型查询的数量,而不会牺牲攻击性能。
Jun, 2019
本文提出了一种离散替代方法来解决黑匣子攻击的问题,该方法可以在不需要估计导数的情况下有效地攻击神经网络,降低了之前所提出方法所需的查询次数。
May, 2019
通过使用代理网络的类分数梯度而不需要其他先验知识或启发式方法,本文提出了一种简单的算法,其通过搜索实现了最先进的结果,有效地从一个网络传输攻击到另一个网络。
Mar, 2022
通过模拟器进行对抗测试,寻找机器学习模型的弱点并提供一种方法来发现这些弱点。该方法应用于人脸识别模型中,显示在常规的验证数据集之外,可以发现真实数据集训练的模型存在的弱点,包括对抗性合成人脸等。
Jun, 2021
本文提出了一种新的黑盒对抗攻击方法,通过使用预训练模型学习低维嵌入,然后在此嵌入空间内进行高效搜索,从而攻击未知目标网络。该方法能够生成具有高级语义模式的对抗性扰动,易于迁移,可大大提高黑盒对抗攻击的查询效率。作者在 MNIST、ImageNet 和 Google Cloud Vision API 上进行评估,并在 CIFAR10 和 ImageNet 上攻击对抗性防御网络,取得了良好的攻击效果。
Nov, 2019
本文提出了一种新的方法,利用自然进化策略在黑盒攻击下生成可靠的对抗样本,并通过新的算法在部分信息下进行有针对性的攻击,无需使用梯度,可以使用少量的请求操作,成功地对商业部署的机器学习系统进行了第一次有针对性的攻击。
Dec, 2017
本文通过定义三种现实世界分类系统的威胁模型(查询限制,部分信息和仅标签),并开发了新的攻击方法,成功的攻击了一个 ImageNet 分类器,并成功的突破了 Google Cloud Vision API 的限制来进行有针对性的黑盒攻击。
Apr, 2018