一种高效且有效的对抗攻击的 Frank-Wolfe 框架
通过 FW-AT 理论框架提出一种新的对抗训练算法 - FW-AT-Adapt,它使用简单的扭曲度量来调整训练中的攻击步数,从而提高效率而不影响鲁棒性。与其他单步方法相比,FW-AT-Adapt 在多步 PGD-AT 的鲁棒性与训练时间上提供了最小的损失。
Dec, 2020
这篇论文提出了 GenAttack—— 一种基于遗传算法的无梯度黑盒对抗攻击优化技术,在 MNIST、CIFAR-10 和 ImageNet 数据集上成功地生成了对抗性样本,攻击了最新的图像识别模型,且所需的查询量比之前的攻击方法少了几个数量级,且还能攻击一些针对对抗性训练的防御措施,通过实验证明了遗传算法在黑盒攻击研究中的可行性和前景。
May, 2018
本文提出了一种新的方法,利用自然进化策略在黑盒攻击下生成可靠的对抗样本,并通过新的算法在部分信息下进行有针对性的攻击,无需使用梯度,可以使用少量的请求操作,成功地对商业部署的机器学习系统进行了第一次有针对性的攻击。
Dec, 2017
本文介绍了一个基于连续数值置信度分数的、高效构建黑盒中敌对图像的简单迭代算法,并且该算法同样适用于有目标和无目标攻击。作者使用少于 20 行的 PyTorch 代码在 Google Cloud Vision API 中展示了该算法的高效和有效性。
May, 2019
本文提出一种用于攻击离散和非连续的机器学习模型的新方法,将难标记黑盒攻击转化为实值优化问题,并且在 MNIST,CIFAR 和 ImageNet 数据集上展示出比现有方法更优异的表现。
Jul, 2018
本研究通过训练一个能够模拟白盒攻击行为的更高效神经网络,证明了白盒攻击优化过程所隐含的知识可以被提取并泛化,可在黑盒情况下攻击 Google Perspective API 并暴露其脆弱性,扰乱 API 的预测结果,而人类对黄金标签的预测准确率仍然很高。
Apr, 2019
采用交替方向乘数法 (ADMM) 作为基础框架,结合零阶优化 (ZO) 和贝叶斯优化 (BO) 等技术,提出了两种新的黑匣子对抗攻击方法 ZO-ADMM 和 BO-ADMM,用于各种扭曲度量和反馈设置,相较于现有攻击方法,该方法能够以较低的查询复杂度取得更高的攻击成功率。在图像分类数据集上进行的实证研究证明了该方法的有效性。
Jul, 2019
本文提出了一种名为 “无需输入” 的攻击方法,用于深度神经网络的对抗攻击,该方法不需要进行大量的查询,可以通过任意图像添加可以感知的扰动来生成对抗性图像。该方法通过灰度图像的初始化和局部扰动与平铺技术来显着降低了查询复杂度,并成功击败了 Clarifai 食品检测 API 和百度动物识别 API。
Sep, 2018