凸诱导分类器的近最优躲避
本研究探讨了如何利用查询算法使得恶意行为能够在尽可能少的修改成本下规避分类器的检测,同时还研究了凸诱导分类器家族中的近似最小代价问题。我们发现,该家族可实现近乎最优的规避,同时还可以处理不同的 lp 成本。
Jul, 2010
本文研究了针对机器学习分类器的黑盒攻击,其中每个向模型的查询都会给对手带来一些代价或检测风险。我们的重点是将查询次数最小化作为主要目标。具体而言,我们考虑了在最小化查询次数的同时遵守特征修改成本预算的机器学习分类器攻击问题。我们描述了一种利用贝叶斯优化来最小化查询次数的方法,并发现,在特征修改成本预算较低的情况下,与随机策略相比,查询次数可以减少到大约原来的十分之一。
Dec, 2017
本文研究了利用黑盒分类器生成对抗性样本的基于决策的规避攻击,认为以查询次数作为攻击代价的度量方法是有缺陷的,因为对流程进行审查的系统检测到的查询是对称成本的。因此需要构建更加对称的攻击来更加有效地攻击安全关键系统。
Jun, 2023
本研究研究如何使分类器对抗性示例具有良好的鲁棒性,但事实上许多防御措施都更加致力于检测受到干扰的输入,作者针对这一目标展开了研究,他们证明了在检测与分类对抗性示例这一问题上存在的一般性困难约束,并阐明了这一结论的重要性和应用前景。
Jul, 2021
本研究提出针对树集合算法的两种新型分类器干扰算法,第一种算法使用 Mixed Integer Linear Program 求解器寻找在一定约束条件下的最优干扰实例,第二种算法通过基于符号预测的快速有限差分方法在速度和准确性之间进行权衡。在数字识别任务中,该研究证明了提升树和随机森林算法极易受到干扰,并通过增加干扰实例的训练集来提高提升树的鲁棒性,不会对其分类准确性造成影响。
Sep, 2015
本文研究了机器学习在安全敏感应用中的应用,提出了一种基于梯度的方法来评估分类算法在对抗攻击下的安全性,并针对 PDF 文件中的恶意软件检测任务进行了实验,同时提出了一些相应的反制措施。
Aug, 2017
本文研究机器学习准确率受到恶意攻击的情况下的学习界限问题,扩展了 PAC-learning 框架进行探讨,并考虑对抗性 VC-dimension 的影响。
Jun, 2018
机器学习模型在隶属推断攻击中容易受到攻击,本论文提出了一种新方法 —— 凸 - 凹损失,使得训练损失的分布具有很高的方差,增强对隶属推断攻击的防御能力,并取得了在隐私 - 效用权衡方面的最佳平衡。
Feb, 2024
本研究旨在提出一种新的分类方法以应对深度神经网络在面对对抗性攻击时的困难,基于该方法,我们可以在保证较高的分类准确性的同时,显著降低各类对抗攻击所带来的影响。
Sep, 2017