本文提出了一种离散替代方法来解决黑匣子攻击的问题,该方法可以在不需要估计导数的情况下有效地攻击神经网络,降低了之前所提出方法所需的查询次数。
May, 2019
通过生成器人工策划的查询,对于第一次扩展到用于预测物体检测中的边界框坐标的回归问题的黑盒子攻击,提出了一个无数据模型提取技术,发现定义损失函数和使用新型生成器设置是提取目标模型的关键。所提出的模型提取方法通过合理的查询取得了显著的结果,该物体检测漏洞的发现将有助于未来保护这类模型的前景。
Aug, 2023
基于代理的黑盒攻击暴露了深度神经网络的高易受攻击性。我们提出了一种生成代理方法,它学习了与目标决策边界相接近的样本的分布,并可以用于制造在其他类别中属于原始样本但几乎不可察觉的对抗性样本。在各种目标和数据集上,该生成方法导致攻击具有明显高的成功率。
Feb, 2024
通过使用代理网络的类分数梯度而不需要其他先验知识或启发式方法,本文提出了一种简单的算法,其通过搜索实现了最先进的结果,有效地从一个网络传输攻击到另一个网络。
Mar, 2022
本文研究了利用黑盒分类器生成对抗性样本的基于决策的规避攻击,认为以查询次数作为攻击代价的度量方法是有缺陷的,因为对流程进行审查的系统检测到的查询是对称成本的。因此需要构建更加对称的攻击来更加有效地攻击安全关键系统。
Jun, 2023
提出了一种新的针对硬标签的黑盒攻击的优化方法,利用经预训练的替代模型指导优化过程,实验证明该方法在不同目标模型架构下显著提高了攻击的查询效率,攻击成功率较基准测试提高了约 5 倍,特别是在 100 和 250 个查询预算下。
Mar, 2024
本文提出了一种新的方法,利用自然进化策略在黑盒攻击下生成可靠的对抗样本,并通过新的算法在部分信息下进行有针对性的攻击,无需使用梯度,可以使用少量的请求操作,成功地对商业部署的机器学习系统进行了第一次有针对性的攻击。
Dec, 2017
本文介绍如何在黑箱攻击中利用参考模型的梯度来降低查询复杂度,提高黑箱攻击的效率和成功率,实验结果表明,与现有技术相比,本文提出的方法可以在查询数量上获得 2x 到 4x 的降低,并且具有更低的失败率。
Jun, 2019
本文研究了针对机器学习分类器的黑盒攻击,其中每个向模型的查询都会给对手带来一些代价或检测风险。我们的重点是将查询次数最小化作为主要目标。具体而言,我们考虑了在最小化查询次数的同时遵守特征修改成本预算的机器学习分类器攻击问题。我们描述了一种利用贝叶斯优化来最小化查询次数的方法,并发现,在特征修改成本预算较低的情况下,与随机策略相比,查询次数可以减少到大约原来的十分之一。
该论文通过选择基础模型作为代理模型,提出了在 no-box 设置下生成图像噪声以满足新兴趋势的对抗攻击的创新想法,并使用基于边界的损失策略对目标图像上的基础模型进行微调,以提高攻击的效率和 AI 系统的整体鲁棒性。
Jul, 2023