面向可解释的元学习从事 DDoS 检测
本文通过使用分布式检测理论对两节点串联数据融合系统的性能进行描述,将可解释的学习模型建模为多级量化器,并证明在本文提出的抽象条件下,具有可解释分类器的人类和黑匣子分类器组成的系统性能优于只有黑匣子分类器的系统。
Jun, 2018
应用人工智能和机器学习于网络安全已有广泛应用,特别是使用深度学习技术设计的 IDS. 然而,这些系统被视为黑盒模型,无法提供预测的合理解释。因此,需要设计可解释的 IDS,调查了可解释 AI 的现状,并提出了一种人们参与的通用架构,以用作设计 X-IDS 的指导
Jul, 2022
通过互联网入侵检测系统(IDS)与可解释人工智能(XAI)的集成,最近取得了显著的性能提升,通过精确的特征选择。然而,深入了解网络攻击需要 IDS 内部可解释的决策过程。本文提出了易于解释的泛化机制(IG),具有革新 IDS 能力的潜力。IG 区分出一致的模式,从而使其具有解释能力,可以区分正常和异常的网络流量。此外,一致模式的合成揭示了复杂的入侵路径,为网络安全取证提供了重要见解。通过与实际数据集 NSL-KDD、UNSW-NB15 和 UKM-IDS20 的实验,IG 即使在低比例的训练和测试中也能取得较高的准确性。在 NSL-KDD 中,当比例为 10% 至 90% 时,IG 的准确率(PRE)为 0.93,召回率(REC)为 0.94,曲线下面积(AUC)为 0.94;在 UNSW-NB15 中,IG 的 PRE 为 0.98,REC 为 0.99,AUC 为 0.99;在 UKM-IDS20 中,IG 的 PRE 为 0.98,REC 为 0.98,AUC 为 0.99。值得注意的是,在 UNSW-NB15 中,IG 在 40% 至 60% 时实现 REC=1.0,至少 PRE=0.98;在 UKM-IDS20 中,IG 在 20% 至 80% 时实现 REC=1.0,至少 PRE=0.88。在 UKM-IDS20 中,IG 成功识别出所有三个异常实例,说明其具有泛化能力。这些结果和推论是可复现的。总之,IG 通过在各种数据集和训练和测试比例(从 10% 至 90% 到 90% 至 10%)之间始终表现出色,并且在没有先前接触的情况下优秀地识别新的异常,展示了卓越的泛化能力。其可解释性通过准确区分正常和异常活动的一致证据得到增强,显著提高了检测准确性,降低了误报,从而增强了 IDS 的可靠性和可信度。
Mar, 2024
基于深度学习的解释性可视化方法在人工智能领域日益被重视,本文总结了目前解释深度学习模型的最新发展,并提出两种解释预测的方法,并将这些方法用于三个分类任务中进行评估。
Aug, 2017
本文是对解释性深度学习系统安全性探索的首次系统研究,发现现有 IDLS 的脆弱性高,提出了一种新的类对抗攻击 ADV^2,并通过实证研究证明了其具有欺骗性和实名性的可行性。文章发现了预测 - 解释不一致性是导致该脆弱性的根源,并尝试针对此进行了一些对策。
Dec, 2018
该研究论文探讨了通过机器学习和超参数调整来改进增强型入侵检测系统,以应对现代人工智能技术对当前网络安全系统的威胁,并通过多数据集集成方法评估了多个机器学习模型的性能.
Dec, 2023
本文提出了 X-Ensemble 模型,采取基于梯度敏感度分析的 DNN 解释器并加以应用于混合攻击检测和修正。使用随机森林模型将多个子探测器组合到一起,以强化对对抗混合攻击的检测。在多种攻击类型和不同场景的实验中,证明了 X-Ensemble 比竞争基线方法更具优势。
Apr, 2023
该研究提出了一个框架,利用机器学习和可解释的人工智能技术,分类和识别 DDoS 攻击的合法流量和恶意流量,在使用 SHAP 进行解释后的分类器模型中,该模型的性能表现高于 99%的准确性。
Jun, 2023
本研究通过使用遮挡敏感性方法,对二元和多类别分类的入侵检测任务中的各种机器学习模型进行了分析,使用相同的数据集。我们发现,大多数分类器仅利用少于三个关键特征就能实现高准确性,表明有效的特征工程对于入侵检测可能比应用复杂模型更为重要。我们还发现,在准确性、时间效率和鲁棒性方面,随机森林提供了最佳性能。
Jun, 2024
医学物联网能够革新医疗保健,通过实时健康数据收集帮助早期疾病检测和个性化护理,并借助机器学习进行异常检测,结合联邦学习和可解释的人工智能方法以保护用户隐私。
Mar, 2024