基于物理引导强化学习的停电缓解
本文提出了一种基于搜索规划算法的新方法解决强化学习中存在的环境约束问题,同时采用黑盒策略优化的进化策略来训练策略直接优化。在 NeurIPS L2RPN 竞赛中,我们的解决方案在两个轨道中均名列第一,能够有效管理电网并确保其地安全性。
Jun, 2021
文章提出了一种基于强化学习的串联故障缓解策略,并且通过直流电力优化流 (DCOPF) 等控制来修正底层问题。通过物理方程式,设计了一种高层次的强化学习策略,测试了浅层和深层神经网络结构,并在 IEEE 118 巴士系统上的实验表明,该缓解策略在减少系统崩溃方面表现出了很有前途的性能。
Aug, 2021
本文提出一种利用深度强化学习进行电力系统紧急控制的方法,并设计了一个名为 “RLGC” 的开源平台来辅助这种方法的开发和基准测试。通过在两区四机系统和 IEEE 39-Bus 系统中的案例研究,证明了该方法的优异性能和鲁棒性。
Mar, 2019
本文介绍了一种使用强化学习(RL)框架 PowRL 来缓解意外事件的影响以及在网络中随时可靠地维持电力的方法,该框架利用一种新颖的过载管理启发式以及基于 RL 指导的最佳拓扑选择来确保网络安全可靠运行,并在多个竞赛数据集中表现出最先进的性能。
Dec, 2022
我们提出了基于近端策略优化的概率约束强化学习算法,通过使用 Lagrangian relaxation 将约束优化问题转换为无约束目标,从而在先进的核电厂设计中实现了最小违规距离和违规率。
Jan, 2024
本文介绍一种基于机器学习的拓扑优化代理和重新派遣优化器的拥堵管理方法,该方法在 L2RPN 2022 竞赛中排名第一,并将其应用于实际电力网操作中,证明了其效益和局限性,为明天的电网部署 RL 代理铺平了道路。
Feb, 2023
本文提出了一种利用深度强化学习解决分布式电网拥塞问题的新型端到端方法,该方法可以在低电压网格中进行决策,确保拥塞 - free 的电网运行。
May, 2024
该研究利用最新的强化学习算法和真实的电力网络环境,提出了一种系统的解决方案来解决传统能源调度面临的问题,并为电力系统提供了一个可持续的低碳未来。
Mar, 2023
评估了 Learning to Run a Power Network 竞赛中 Binbinchen 代理的表现,并提供了改进策略,其中最主要的是 N-1 策略,这种策略可使得电网保持稳定性,同时提高了规则代理的性能达到了 27%。
Apr, 2023
提出了一种基于模型的深度强化学习方法,用于设计短期电压稳定性问题的紧急控制策略,并使用基于深度神经网络 的动态代理模型进行训练,最终在 IEEE 300 总线测试系统上实现了 97.5% 的样本效率和 87.7% 的训练效率。
Dec, 2022