评估事件识别模型的鲁棒性的对抗方法
本文探讨了针对数据驱动应用中出现的恶意攻击对卷积神经网络(CNN)事件原因分析框架的影响,并通过实时数字模拟器(RTDS)生成的数据分析了不同攻击类型和数据访问级别下攻击的有效性和防御机制。
Nov, 2019
本文使用机器学习模型应对物联网系统中的不断增长的网络攻击数量,但对抗性攻击的威胁加大了对可靠防御策略的需求,描述了逼真的对抗性网络攻击示例所需的约束类型,并提出了一种可靠的对抗性鲁棒性分析方法,该方法通过适应性扰动模式方法 (A2PM) 生成约束性对抗性示例,针对常规和对抗性训练生成的模型执行了逃避攻击,并评估了三种有监督算法 (Random Forest (RF)、Extreme Gradient Boosting (XGB)、Light Gradient Boosting 机器 (LGBM)) 和一种无监督算法 (Isolation Forest (IFOR)),证明了基于树的算法和集成对对抗性攻击的固有易感性,展示了在 IoT 网络入侵检测和网络攻击分类中采用安全设计和对抗性训练方法带来更强大鲁棒性的好处。
Jan, 2023
通过对网络入侵检测系统进行基于机器学习的威胁模拟,发现现有文献中的威胁模型不适用于实际的网络安全情景,因此,有必要加强现有防御系统以及探索更加真实和有效的对抗方式。
Jun, 2021
提出了一种方法论性对多个决策树集成模型进行对抗鲁棒性评估的基准测试,评估了正常和对抗训练的随机森林 (RF)、梯度提升树 (XGB)、轻梯度提升树 (LGBM) 和增强型决策树 (EBM) 模型对网络流量的检测性能,通过减少误报来提高对可疑活动的可靠检测能力。
Feb, 2024
本研究是首次系统地研究灰盒 / 黑盒交通空间对抗攻击来评估基于 ML 的 NIDS 的鲁棒性,攻击效果最高可达 97% 躲避率。研究提出可自动突变原始数据流、适用于多种 ML/DL 模型和非载荷特征的通用攻击,同时提出防御措施来提高系统鲁棒性。
May, 2020
该研究探讨了如何使用对抗性学习通过生成基于 Jacobian 的显著性图攻击的对抗性样本以及探索分类行为,从而攻击监督模型。该分析还包括如何使用对抗性训练来支持监督模型的鲁棒性。随着对抗性样本的出现,两个广泛使用的分类器 —— 随机森林和 J48 的分类性能分别降低了 16 和 20 个百分点,但训练后它们的性能得到提高,证明了它们对这种攻击的鲁棒性。
Apr, 2020
该论文对敌对学习进行了现代综述,重点关注了对统计分类器攻击的防御,并对最近关于测试时间逃避,数据污染和反向工程攻击以及对策进行了综述,最后提出了一些未解决问题和未来工作方向。
Apr, 2019
通过扩散模型提出的对抗净化方法在对抗攻击下大幅提高了事件分类器的准确率,满足实时操作需求,同时减小了原始和受损的数据之间的距离,降低了对抗攻击的影响。
Nov, 2023
本文提出了一种基于数据推动的黑客攻击方法 —— 基于分类模型的欺骗方法,并通过 Google Cloud Prediction 平台进行了实验验证,发现分类器天生易受攻击,并且可以轻松地进行逃避攻击,这为构建安全的机器学习框架提供了启示。
Mar, 2017