基于动作集的安全电网管理策略优化
评估了 Learning to Run a Power Network 竞赛中 Binbinchen 代理的表现,并提供了改进策略,其中最主要的是 N-1 策略,这种策略可使得电网保持稳定性,同时提高了规则代理的性能达到了 27%。
Apr, 2023
我们提出了基于近端策略优化的概率约束强化学习算法,通过使用 Lagrangian relaxation 将约束优化问题转换为无约束目标,从而在先进的核电厂设计中实现了最小违规距离和违规率。
Jan, 2024
本文介绍了一种使用强化学习(RL)框架 PowRL 来缓解意外事件的影响以及在网络中随时可靠地维持电力的方法,该框架利用一种新颖的过载管理启发式以及基于 RL 指导的最佳拓扑选择来确保网络安全可靠运行,并在多个竞赛数据集中表现出最先进的性能。
Dec, 2022
使用物理引导的强化学习框架来识别有效的实时补救前瞻决策序列以避免黑 out,该框架考虑了包括离散值传输线开关决策和连续值发电机调整在内的控制动作空间,并使用关联于电力传输网络的潮流灵敏度因子来指导强化学习探索。
Jan, 2024
在未来的电力系统中,将大量依赖于具有高比例的分散式可再生能源和能量存储系统的微电网。出于复杂性和不确定性的原因,在这种情境下的传统能源调度策略可能不可行,利用基于强化学习的控制器可以解决这一挑战,但不能提供安全保障,于是我们提出了一种经过正式验证的基于强化学习的经济调度控制器,来克服这种局限性。
May, 2022
提出了一种基于模型的深度强化学习方法,用于设计短期电压稳定性问题的紧急控制策略,并使用基于深度神经网络 的动态代理模型进行训练,最终在 IEEE 300 总线测试系统上实现了 97.5% 的样本效率和 87.7% 的训练效率。
Dec, 2022
本文介绍一种基于机器学习的拓扑优化代理和重新派遣优化器的拥堵管理方法,该方法在 L2RPN 2022 竞赛中排名第一,并将其应用于实际电力网操作中,证明了其效益和局限性,为明天的电网部署 RL 代理铺平了道路。
Feb, 2023
本文针对电网控制系统的弱点进行研究,发现现有的强化学习算法存在敏感性,容易受到恶意攻击,提出了一种基于对抗训练的解决方案,以增强算法的安全性和鲁棒性。
Oct, 2021
该研究论文介绍了一种安全感知的强化学习算法,用于管理电动车充电站,并确保满足系统约束。该算法不依赖于对约束违规的显式惩罚,而且能在不确定环境中学习模式,以提高对电动车充电的管理效果。
Mar, 2024
该论文提出了一种适用于扩展动作空间的分层多智能体强化学习 (MARL) 框架,利用电网固有的分层结构,用于管理大规模的电力网络,并且实验结果表明该框架的性能与单智能体强化学习方法相当。
Oct, 2023