通过动作空间对抗训练强化学习智能体的鲁棒性提升
本文针对电网控制系统的弱点进行研究,发现现有的强化学习算法存在敏感性,容易受到恶意攻击,提出了一种基于对抗训练的解决方案,以增强算法的安全性和鲁棒性。
Oct, 2021
本文介绍了 Adversarial Resilience Learning(ARL)概念,其定义了两个代理类,即攻击者和防御者,这两个代理机器人在没有任何领域知识的情况下互相探索和训练,并且可以使用广泛的模型自由和模型基础的深度强化学习算法,例如在复杂的电力网络上运行实验,以实现复杂环境下的检查和弹性运行。
May, 2020
通过提出状态对抗马尔可夫决策过程 (SA-MDP) 的理论框架和一种新的策略正则化方法,并在多个强白盒对抗攻击中测试,我们成功地提高了一系列深层强化学习算法在离散和连续动作控制问题上的鲁棒性。
Mar, 2020
本文提出了针对强化学习的对抗攻击,并通过这些攻击提高了深度强化学习算法对参数不确定性的鲁棒性。我们展示了即使是一个简单的攻击也能成功降低深度强化学习算法的性能,并进一步使用工程丢失函数的梯度信息改进了攻击方法,导致性能进一步降低。这些攻击方法被用于训练中,以改善 RL 控制框架的鲁棒性。我们展示了在 Cart-pole,Mountain Car,Hopper 和 Half Cheetah 等 RL 基准测试环境中,对 DRL 算法进行对抗训练可以显著提高其对参数变化的鲁棒性。
Dec, 2017
本文研究基于深度神经网络的自主决策系统的安全性,提出了一种基于认证对抗鲁棒性的在线防御机制,该机制计算执行过程中状态 - 动作值的保证下限,以在可能存在对手或噪声导致输入空间最差情况偏离选择最佳行动,在行人碰撞回避场景和一个经典控制任务中,该方法显示出提高对噪声和对手的鲁棒性。
Oct, 2019
深度强化学习算法中的模拟和真实世界之间的建模错误问题,通过使用对抗学习生成扰动以建模差异并提高深度强化学习的鲁棒性,在控制对抗性扰动的参数上存在平均性能和鲁棒性之间的权衡。为了保持训练的稳定性并提高鲁棒性,我们提出了一种简单而有效的方法,即自适应对抗性扰动 (A2P),可以动态选择适当的对抗性扰动来处理每个样本。我们的方法具有将其部署在实际应用中且无需事先访问模拟器的优点。在 MuJoCo 上的实验表明,我们的方法可以提高训练的稳定性,并在不同的测试环境中学习到一种鲁棒的策略。
May, 2024
本研究主要研究深度强化学习模型的脆弱性,针对相应的攻击方式进行了探究,并提出了黑盒攻击、在线顺序攻击等攻击方法来应对其高计算需求,同时探讨了攻击者扰动环境动态的可能性,并通过实验验证了这些攻击方式的有效性。
Jul, 2019
本文根据系统状态不确定性和攻防动态的特征,提出了一个数据驱动的 DRL 框架,学习上下文感知的防御措施,以动态适应不断变化的对抗行为,同时最大程度减少对网络系统运营的影响,在多阶段攻击和系统不确定性下,DRL 算法在积极的网络防御中具有很好的效果。
Feb, 2023