使用对抗训练提高强化学习在电力系统控制中的鲁棒性
提出了一种稳健性的敌对训练(robust adversarial reinforcement learning, RARL)方法,该方法将敌对训练与零和极小优化相结合,通过训练一个智能体,使其能够在真实系统上的杂乱因素和不确定性下操作,并在多种环境中进行了验证。
Mar, 2017
本文提出了针对强化学习的对抗攻击,并通过这些攻击提高了深度强化学习算法对参数不确定性的鲁棒性。我们展示了即使是一个简单的攻击也能成功降低深度强化学习算法的性能,并进一步使用工程丢失函数的梯度信息改进了攻击方法,导致性能进一步降低。这些攻击方法被用于训练中,以改善 RL 控制框架的鲁棒性。我们展示了在 Cart-pole,Mountain Car,Hopper 和 Half Cheetah 等 RL 基准测试环境中,对 DRL 算法进行对抗训练可以显著提高其对参数变化的鲁棒性。
Dec, 2017
本文介绍了 Adversarial Resilience Learning(ARL)概念,其定义了两个代理类,即攻击者和防御者,这两个代理机器人在没有任何领域知识的情况下互相探索和训练,并且可以使用广泛的模型自由和模型基础的深度强化学习算法,例如在复杂的电力网络上运行实验,以实现复杂环境下的检查和弹性运行。
May, 2020
研究了机器学习在具备恶意状态/执行机构攻击下的表现,介绍了深度强化学习在决策和控制任务中存在漏洞的问题,提出了通过对抗训练来提高深度强化学习代理的抗干扰性以实现系统的稳定性和鲁棒性。
Jul, 2020
该研究提出了RADIAL-RL框架,以提高深度强化学习代理的鲁棒性,经实验表明,RADIAL-RL代理在对抗攻击下的性能表现出色,同时提出了一种新的评估方法,称为Greedy Worst-Case Reward (GWC)。
Aug, 2020
提出了一种面对对抗式网络事件的具有弹性控制设计的新型联邦增强学习方法,并将所学习的控制策略通过仿真与实际测试平台的转移来减少仿真与实际之间的差距。
Nov, 2023
该研究提出了一个框架,通过利用先进的对抗攻击和防御来提高离线强化学习模型的稳健性,并以D4RL基准进行了评估,结果显示了演员和评论家对攻击的脆弱性以及防御策略在提高策略稳健性方面的有效性,为提高实际场景中离线强化学习模型的可靠性提供了希望。
May, 2024
通过使用组别区别逻辑损失和分流层的新型攻击技术,可以在连续控制中显著增加攻击影响,并且所需的畸变要远小于最优目标攻击,从而使其更难被检测到。实验结果表明,对DRL控制器的对抗攻击会产生显著影响,同时限制攻击的扰动使其难以被检测,但某些DRL架构更具鲁棒性,并且鲁棒训练方法可以进一步减小攻击的影响。
Jul, 2024
本研究针对由分布式能源资源引发的电力系统频率不稳定问题,聚焦智能逆变器在面临网络攻击时的脆弱性。通过强化学习方法,本文揭示了攻击者可能采用的虚假数据注入策略,研究表明这种方法能够有效识别并利用逆变器设置,带来严重后果。
Aug, 2024