关键词decision-based attacks
搜索结果 - 9
- 探索基于决策的黑盒攻击在语义分割上的应用
通过对语义分割的案例研究,本文首次探索了对语义分割的黑盒决策攻击,并提出了一种名为离散线性攻击(DLA)的决策攻击方法,通过随机搜索和代理指数实现了高效攻击效果,评估了 5 个模型在 8 种攻击下的对抗鲁棒性。DLA 在 Cityscape - 探索基于决策的黑盒攻击对人脸伪造检测的影响
利用决策导向攻击和频率线索,我们提出了一种新的人脸伪造攻击方法,具有高查询效率和保证图像质量,在 FaceForensics++、CelebDF 和工业 API 上实现了攻击性能的最新突破,同时揭示了人脸伪造检测器的安全问题。
- 可变时间推理的对抗意义
该研究旨在提高基于决策的攻击,并展示了利用算法执行时间作为侧信道来实施决策攻击的能力,特别是在与目标检测相关的非最大抑制算法中发现的时间侧信道漏洞。研究提出了一种新的威胁模型,利用定时泄漏进行数据集推理,并探索了实施恒定时间推理传递作为一种 - 使用强化学习的通用分布式基于决策的黑盒对抗攻击
研究在决策类攻击领域提出了像素级决策驱动的黑盒攻击算法,该算法使用增强学习算法找到对抗性扰动分布,经实验证明,与现有技术相比更具攻击成功率和可转移性。
- ICLR针对黑盒深度学习模型的高效决策稀疏攻击
本文针对深度学习模型的脆弱性与展开的攻击方式,研究了基于模型决策的稀疏攻击,提出了 SparseEvo 算法,并将其应用于卷积深度神经网络和视觉 Transformer 等模型上进行评估。SparseEvo 与之前的算法相比具有更高的攻击效 - MM标签曝光中的成员信息泄漏
本文提出了基于决策的成员推理攻击方法,证明了仅利用标签信息的模型也容易受到成员泄漏攻击,并且开发了两种决策攻击类型:转移攻击和边界攻击。最后,我们评估多种防御机制,并展示了我们提出的两种攻击方式可以绕过大部分防御。
- 一种基于几何启发的决策攻击
该研究提出了 qFool 算法,它是一种基于决策的攻击算法,可以使用少量的查询生成对抗样本。该算法可以在减少查询数量的同时,在低频子空间中限制对抗扰动,从而使其更具计算效率。最终,该算法在商业图像识别系统中获得了欺骗效果的证明。
- RED-Attack: 机器学习资源有效的基于决策的攻击
通过采用分类边界估计和对抗性噪声优化两个步骤,提出了一种资源高效的、可用于黑盒模型的决策攻击方法,即 RED-Attack,以减轻基于输出概率向量进行的深度神经网络 (DNNs) 安全漏洞所带来的风险。
- ICLR决策型对抗攻击:针对黑盒机器学习模型的可靠攻击
本研究介绍了基于模型决策的 Boundary Attack,它比传统基于梯度或得分的攻击更加适用于实际的黑盒模型应用,同时它不需要替代模型,比起传输攻击需要更少的知识,更容易应用,提高了机器学习模型的鲁棒性,同时也引发了有关部署机器学习系统