可解释和可解释的机器学习在入侵检测中的重要评估
本文介绍了一个新的框架,利用可解释的机器学习方法来指导高保真度评估机器学习逃避攻击,使用恶意软件和图像分类器进行综合评估,揭示了对抗样本与其上的对应扰动之间的关联差距,并展示了该方法对于评估机器学习模型鲁棒性的广泛使用。
Jun, 2021
应用人工智能和机器学习于网络安全已有广泛应用, 特别是使用深度学习技术设计的IDS. 然而,这些系统被视为黑盒模型,无法提供预测的合理解释。因此,需要设计可解释的IDS,调查了可解释AI的现状,并提出了一种人们参与的通用架构,以用作设计X-IDS的指导
Jul, 2022
本文地址了深度学习方法中非常规检测模型通常缺乏透明度的问题而建立了具有可解释性的EADMNC模型,并通过在输入数据中建立分类树的图形表示方法和模板方法提供先验和后验的解释,以提高对网络侵入检测的专家知识的拥有,检验对该领域实际数据的实验结果。
Sep, 2022
本论文旨在提出一种基于可解释性竞争学习的入侵检测系统框架,该框架使用诸如自组织映射、生长自组织映射和生长分层自组织映射等算法建模,并能通过数据挖掘生成统计和可视化的解释,较黑盒模型更具解释力和提高了预测速度。
Mar, 2023
本文探讨了基于机器学习的入侵检测系统在准确度不确定性方面的挑战和应用,强调了准确度不确定性对提高ML-IDS的可信度的重要性,并通过对网络入侵检测领域的不同ML方法进行比较和验证,表明准确度不确定性的适当估计可以显著增强ML-IDS的可信度。此外,结果还确认传统基于前馈神经网络的ML方法可能不适合在网络入侵检测中使用。
Sep, 2023
该研究论文探讨了黑盒算法和替代解释器在可解释入侵检测系统(X-IDS)中引发的信任问题。通过将教学法和分解法综合应用于课程,该文介绍了一种混合的规则提取算法,从隐藏层中提取出可信任的规则集,用于黑盒深度神经网络(DNN)的解释。评估结果表明,这种算法能够生成与DNN输出相似的规则集,具有99.9%的准确率,并在解释性和性能方面进行了全面分析,展示了规则提取速度和准确性之间的权衡。
Jan, 2024
使用深度学习和图神经网络构建的可解释入侵检测系统(IDS)提供了高精度的网络攻击和异常识别方案。该研究通过利用网络流数据,结合边属性,改进检测能力,适应新型威胁,并提供清晰可行的解释分析结果,以促进机器学习和深度学习技术在网络安全防御中的广泛应用。
Feb, 2024
通过互联网入侵检测系统(IDS)与可解释人工智能(XAI)的集成,最近取得了显著的性能提升,通过精确的特征选择。然而,深入了解网络攻击需要IDS内部可解释的决策过程。本文提出了易于解释的泛化机制(IG),具有革新IDS能力的潜力。IG区分出一致的模式,从而使其具有解释能力,可以区分正常和异常的网络流量。此外,一致模式的合成揭示了复杂的入侵路径,为网络安全取证提供了重要见解。通过与实际数据集NSL-KDD、UNSW-NB15和UKM-IDS20的实验,IG即使在低比例的训练和测试中也能取得较高的准确性。在NSL-KDD中,当比例为10%至90%时,IG的准确率(PRE)为0.93,召回率(REC)为0.94,曲线下面积(AUC)为0.94;在UNSW-NB15中,IG的PRE为0.98,REC为0.99,AUC为0.99;在UKM-IDS20中,IG的PRE为0.98,REC为0.98,AUC为0.99。值得注意的是,在UNSW-NB15中,IG在40%至60%时实现REC=1.0,至少PRE=0.98;在UKM-IDS20中,IG在20%至80%时实现REC=1.0,至少PRE=0.88。在UKM-IDS20中,IG成功识别出所有三个异常实例,说明其具有泛化能力。这些结果和推论是可复现的。总之,IG通过在各种数据集和训练和测试比例(从10%至90%到90%至10%)之间始终表现出色,并且在没有先前接触的情况下优秀地识别新的异常,展示了卓越的泛化能力。其可解释性通过准确区分正常和异常活动的一致证据得到增强,显著提高了检测准确性,降低了误报,从而增强了IDS的可靠性和可信度。
Mar, 2024
使用Logic Explained Networks (LENs) 方法在复杂领域的恶意软件检测中,提供了解释模型决策的First-Order Logic (FOL)规则,并在实验结果中展示了其与传统可解释方法和黑盒模型相媲美的鲁棒性。
May, 2024
本研究通过使用遮挡敏感性方法,对二元和多类别分类的入侵检测任务中的各种机器学习模型进行了分析,使用相同的数据集。我们发现,大多数分类器仅利用少于三个关键特征就能实现高准确性,表明有效的特征工程对于入侵检测可能比应用复杂模型更为重要。我们还发现,在准确性、时间效率和鲁棒性方面,随机森林提供了最佳性能。
Jun, 2024