黑盒恶意软件分类器的最佳努力对抗逼近
本文介绍了一种基于注入良性内容的黑盒攻击方法,通过优化注入负载与规避检测的概率之间的权衡,利用很少的查询和小的负载,我们的黑盒攻击可以绕过两个流行的静态 Windows 恶意软件检测器,并且可以在平均 12 个标准的商业杀软中规避检测。
Mar, 2020
在网络安全领域中,人工智能的快速发展引起了重大安全关注,深度学习模型在对抗性攻击中的脆弱性是主要问题之一,该研究的关键贡献是在网络攻击检测系统中经验性地测试黑盒对抗转移现象,并验证了任何深度学习模型都极易受到对抗攻击的影响,即使攻击者无法访问目标模型的内部细节,白盒对抗攻击相比黑盒对抗攻击具有更严重的影响。因此,有必要研究和探索对抗性防御技术以增强深度学习模型对对抗攻击的鲁棒性。
Apr, 2024
提出了一种新的针对硬标签的黑盒攻击的优化方法,利用经预训练的替代模型指导优化过程,实验证明该方法在不同目标模型架构下显著提高了攻击的查询效率,攻击成功率较基准测试提高了约 5 倍,特别是在 100 和 250 个查询预算下。
Mar, 2024
对机器学习模型的黑盒攻击是可能的,即使它们的结构不同。通过生成对抗性样本,并利用受害者模型标记合成训练集,攻击者可以训练出自己的替代模型,并将对抗性样本转移到受害者模型中实施攻击,该方法可以使用新的技术使攻击过程更加有效率,在 Amazon 和 Google 等公司的商业机器学习分类系统中展示了攻击的有效性。
May, 2016
本研究评估了活动学习模型窃取攻击,提出了一种新的神经网络结构用于代理模型,成功地生成了可逃避目标但不如目标本身成功的对抗性样本,这在反病毒软件攻击中是必须的。
Apr, 2022
本文讨论了黑盒子设置下图像分类的对抗性样本问题,并针对 Boundary Attacks 提出了一种基于偏差抽样的新方法,该方法通过图像频率、区域掩码和代理梯度三种偏差来提高攻击效率,并在 ImageNet 数据集上进行了深入评估。最终表明,这些偏差的结合能够显著提高黑盒攻击的效率,并在对 Google Cloud Vision API、以及强防御模型的攻击中都表现出色。
Dec, 2018
该研究介绍了一种利用黑盒攻击实现远程控制机器学习模型的方法,该攻击方式不需要了解模型内部或训练数据。研究表明该黑盒攻击策略可适用于许多机器学习技术,并且能够规避之前发现的防御策略。
Feb, 2016
本文通过定义三种现实世界分类系统的威胁模型(查询限制,部分信息和仅标签),并开发了新的攻击方法,成功的攻击了一个 ImageNet 分类器,并成功的突破了 Google Cloud Vision API 的限制来进行有针对性的黑盒攻击。
Apr, 2018