本文针对使用支持向量机(SVM)进行垃圾邮件和恶意软件检测等安全相关任务时存在的安全问题进行了探究,特别是研究了 SVM 对面向标签噪声攻击的安全性,并通过启发式方法解决了攻击策略的最优化问题,并在合成和实际数据集上进行了广泛的实验分析。最后,本文还指出,这种方法也可以为开发更安全的 SVM 学习算法以及半监督和主动学习等相关研究领域提供有用的见解。
Jun, 2022
本论文研究了在机器学习算法中,特别是深度神经网络中毒攻击的方法,提出了生成毒瘤数据的生成方法,并设计了一种检测方法来检测这种攻击。实验结果表明,与直接梯度法相比,这种方法可以加速毒瘤数据的生成速度高达 239.38 倍,且模型的准确度下降略微较低。
Mar, 2017
该论文提出了一种基于反向梯度优化的毒化攻击算法,能够对梯度优化训练的广泛学习算法进行攻击,并在实际应用中进行了有效性评估。
Aug, 2017
我们引入了一种针对算法公平性的优化框架,并开发了一种基于梯度的毒化攻击方法,旨在在数据的不同群体之间引入分类偏差,我们实验性地表明,我们的攻击不仅在白盒环境中有效,特别是在黑盒情况下,也对目标模型有很大影响,我们相信我们的发现为完全新的针对算法公平性在不同场景中的对抗攻击定义铺平了道路,并且研究这些漏洞将有助于未来设计更加稳健的算法和对策。
Apr, 2020
本文研究机器学习模型在训练时通过数据毒化攻击注入恶意数据点的危害以及数据清洗防御措施的不足。通过协调毒化点放置位置和基于约束条件设计攻击的方式,开发三种不同方法规避现有的数据清洗防御措施。这些攻击方法均基于耗时的二级规划问题,并通过影响函数,极小 - 极大假说和 Karush-Kuhn-Tucker(KKT)条件来实现。我们的实验结果表明需要开发更稳健的数据清洗防御措施以应对数据毒化攻击的威胁。
Nov, 2018
该论文系统研究了线性回归模型中的污染攻击和其对策,提出了一个特定于线性回归的理论优化框架,并设计了一种面对污染攻击高度抗干扰的新型防御方法。
Apr, 2018
本文介绍了机器学习在安全相关应用中的应用,探讨了一种针对机器学习的因果完整性攻击,提出了名为 Curie 的一种方法来保护 SVM 分类器对抗黄染攻击并且实验证明了该方法的有效性。
Jun, 2016
对使用用户提供数据训练的机器学习系统进行的数据毒化攻击问题进行了探讨,构建了数据异常移除后采用经验风险最小化的防御方法下的攻击损失上限并给出了攻击方法,检验了在 MNIST-1-7,Dogfish 数据集上其防御能力较强,而在 IMDB 情感数据集上加入 3% 的毒化数据可将测试误差从 12% 提升至 23%。
Jun, 2017
本文提出一种防御机制来弥补机器学习中数据毒化的影响,该机制基于离群值检测来检测所谓的最优攻击策略生成的对抗样本与真实样本之间的差异。
Feb, 2018
本文综述了机器学习分类器训练中的数据污染攻击的安全漏洞,并介绍了几种可行的检测和缓解机制,比较了不同方法的性能以及固有属性,如可靠性、隐私和可解释性。同时,提供了未来研究方向的参考。
Feb, 2022