DeltaBound 攻击:低查询条件下高效的基于决策的攻击
提出了一种使用贝叶斯优化来进行黑盒攻击的方法,通过在结构性低维子空间中搜索对抗样本来避免 BO 在高维度下的性能问题,实验结果显示该方法相较现有黑盒攻击算法需要更少的查询次数,并且攻击成功率提高了 2 到 10 倍。
Jul, 2020
本研究介绍了基于模型决策的 Boundary Attack,它比传统基于梯度或得分的攻击更加适用于实际的黑盒模型应用,同时它不需要替代模型,比起传输攻击需要更少的知识,更容易应用,提高了机器学习模型的鲁棒性,同时也引发了有关部署机器学习系统安全性的新问题。
Dec, 2017
本文探究了 DNN 的黑盒攻击方案,使用现有的白盒攻击方法产生的采样样本进行训练替代模型,并提出主动学习策略和多样性准则以优化其表现,实验证明该方法可以将查询数量减少超过 90% 并保持黑盒攻击成功率。
Sep, 2018
本文提出了一种新的基于 $l_p$-norms 的白盒对抗攻击方法,通过最小化扰动的大小来改变特定输入的类别,这个方法具有几何直观性,是一种性能优越的攻击方法,比专门针对一个 $l_p$-norm 的攻击方法具有更好的鲁棒性,并且可以解决梯度掩盖的问题。
Jul, 2019
本文提出一种用于攻击离散和非连续的机器学习模型的新方法,将难标记黑盒攻击转化为实值优化问题,并且在 MNIST,CIFAR 和 ImageNet 数据集上展示出比现有方法更优异的表现。
Jul, 2018
提出了一种新的针对硬标签的黑盒攻击的优化方法,利用经预训练的替代模型指导优化过程,实验证明该方法在不同目标模型架构下显著提高了攻击的查询效率,攻击成功率较基准测试提高了约 5 倍,特别是在 100 和 250 个查询预算下。
Mar, 2024
本文介绍了一种基于模型终极预测标签的查询高效边界型黑盒攻击 (QEBA),并在 ImageNet 和 CelebA 数据集上进行了广泛的实验。实验结果表明,与最先进的黑盒攻击相比,QEBA 能够使用更少的查询次数以更低的扰动量实现攻击,并在实际 API 上展示了攻击案例。
May, 2020
探索对抗训练的极限,发现了通过结合更大的模型、Swish/SiLU 激活函数和模型权重平均化可以训练出强健模型,同时在 CIFAR-10 和 CIFAR-100 数据集上有了大幅度的提升。
Oct, 2020
本文提出一种新的方法,通过 Oracle-Aligned Adversarial Training (OA-AT) 的方式来提高神经网络对抗攻击的鲁棒性,可以在大的扰动(如 L-inf bound 为 16/255 时)达到最先进的性能,同时在标准边界(8/255)也胜过现有的防御机制。
Oct, 2022
本文介绍了一个基于决策的敌对攻击算法,名为 HopSkipJumpAttack,其通过在决策边界处利用二进制信息来估计梯度方向以生成对抗性样本,并提供了理论分析和实验验证。
Apr, 2019