一种利用深度Q网络和系统分割的入侵响应系统
本文综述了应用深度强化学习方法来解决网络安全领域中的复杂、动态和高维防御问题的DRL方法,并强调了DRL在网络物理系统,自主入侵检测和通过游戏模拟来应对网络攻击的策略防御方面的价值,同时也提出了对未来DRL网络安全研究发展的建议。
Jun, 2019
本文比较了两种深度强化学习算法在软件定义网络的网络安全方面的应用:神经情景控制和深度Q网络。该论文通过类似于零和博弈的形式进行算法实现和比较,运用双尾T检验分析了两者游戏结果以及智能体的游戏得分,发现两个算法在表现方面没有显著的统计学差异。
Sep, 2022
本研究提出了一种名为RTS的新方法,通过建立一个代理网络来近似环境动态模型,采用代理行动信息实现在预测状态下采取的行动与在实际状态下采取行动的差异,从而有效地防御单一代理中的后门攻击,达到保护受害代理的目的。实验结果表明,在后门攻击下,使用RTS时累积回报只下降了1.41%。
Apr, 2023
利用深度 Q 学习方法设计单人博弈,模拟破坏者攻击网络的行为,对不同鲁棒性的定义进行训练,研究发现对网络的最优攻击或防御策略取决于特定的目标定义,该方法可用于深入理解网络稳健性,并在无序系统中具有潜在应用。
May, 2023
该研究聚焦于利用自主攻击性方法在深度强化学习(DRL)中提升训练的鲁棒性,并探索在软件定义网络(SDN)中将对抗学习应用于DRL以实现自主安全性的影响。通过比较两个算法,DDQN和NEC2DQN(或N2D),发现通过引入因果性攻击来实施对抗学习,算法仍能根据自身的具体优势保护网络。
Aug, 2023
我们研究了IT基础设施的自动入侵响应,并将攻击者和防御者之间的交互建模为部分观测的随机博弈。通过强化学习和自我对抗使攻击和防御策略共同演化到均衡点,我们解决了这个博弈。我们通过将博弈递归地分解为可以并行求解的子博弈,解决了之前的方法在规模较大的实际场景中随着基础设施规模指数级增长的计算复杂度问题。我们引入了名为Decompositional Fictitious Self-Play(DFSP)的算法来解决分解后的博弈,该算法通过随机逼近来学习纳什均衡。我们在一个仿真环境中评估了学习到的策略,其中可以执行真实的入侵和响应行动。结果表明,学习到的策略接近一个均衡点,并且DFSP在实际基础设施配置下明显优于现有算法。
Sep, 2023
近年来网络攻击数量的快速增加使得有必要提出原则性方法来防御恶意行为者。深度强化学习已成为一种有望减轻这些攻击的方法,但在大规模应用于自主网络操作之前,需要克服许多挑战。本文调研了相关的深度强化学习文献,并构思了一个理想的自主网络操作的深度强化学习代理,提供了领域特性概要、深度强化学习方法与自主网络操作之间的比较、扩展深度强化学习的方法以应对高维状态空间挑战以及限制对抗环境中代理利用性的现有方法的概述和评价,并提出未来的研究问题。
Oct, 2023
通过引入多智能体强化学习架构、改进深度 Q 网络算法的损失函数以及采用敏感学习技术,我们的研究解决了入侵检测系统中的类不平衡问题,并有效地实现了对攻击的细粒度分类,同时具有较低的误报率。与现有技术相比,我们的方案在检测率和误报率上具有重大优势。
Jul, 2024
基于机器学习的自动化事件响应代理需要处理网络结构的变化,通过使用关系代理学习方法,将计算机网络的状态表示为关系图,并使用信息传递神经网络对其进行编码,从而解决了在网络变化时重新训练代理的问题。
Jul, 2024