基于启发式黑盒方法的视频识别模型对抗攻击
本文介绍了一个基于连续数值置信度分数的、高效构建黑盒中敌对图像的简单迭代算法,并且该算法同样适用于有目标和无目标攻击。作者使用少于 20 行的 PyTorch 代码在 Google Cloud Vision API 中展示了该算法的高效和有效性。
May, 2019
该研究提出了一种黑盒攻击框架,通过生成通用的三维扰动对多种视频识别系统进行破坏,该扰动具有多种优势,包括可以越过先进的防御机制以及保证了人类视觉感知的不可察觉性。实验结果表明该方法的优越性和实用性。
Jul, 2021
本文旨在评估最先进的人脸识别模型在基于决策的黑盒攻击环境下的鲁棒性能,并提出一种新的进化攻击算法以减少搜索空间维度,实验结果表明该方法能够在较少的查询次数内诱导输入的最小扰动,并成功地用于攻击一个真实的人脸识别系统。
Apr, 2019
本研究提出了一种基于视频的攻击方法,将几个无用帧附加到视频剪辑中并仅对这些新帧添加对抗扰动,这种攻击可以成功地穿越不同的网络,并且对于大多数人来说是不易注意到异常的,从而有效地进行通用视频攻击。
Dec, 2019
提出了一种新的针对硬标签的黑盒攻击的优化方法,利用经预训练的替代模型指导优化过程,实验证明该方法在不同目标模型架构下显著提高了攻击的查询效率,攻击成功率较基准测试提高了约 5 倍,特别是在 100 和 250 个查询预算下。
Mar, 2024
本文讨论了黑盒子设置下图像分类的对抗性样本问题,并针对 Boundary Attacks 提出了一种基于偏差抽样的新方法,该方法通过图像频率、区域掩码和代理梯度三种偏差来提高攻击效率,并在 ImageNet 数据集上进行了深入评估。最终表明,这些偏差的结合能够显著提高黑盒攻击的效率,并在对 Google Cloud Vision API、以及强防御模型的攻击中都表现出色。
Dec, 2018