海上风电场投标的情境强化学习
我们提出了一种强化学习策略来通过主动改变转子速度、转子偏转角和叶片俯仰角来控制风力涡轮发电。该方法采用了双重深度 Q 学习与叶片动量元模型相结合,通过训练使其能够在不同风速下进行控制,并且在真实的动态湍流风中表现出良好的性能。与传统的值迭代强化学习控制相比,双重深度 Q 学习表现更好,在所有环境中都优于传统的 PID 控制。此外,强化学习方法适用于包括湍流 / 阵风风在内的变化环境,表现出很大的适应性。最后,我们将所有的控制策略与真实风进行比较,并计算了年度能量产出。在这种情况下,双重深度 Q 学习算法也优于传统方法。
Feb, 2024
本研究首次探讨使用深度强化学习在智能电网环境下实现建筑能源管理系统的在线调度优化,所提出的方法被验证可用于大规模数据资源中,如 Pecan Street Inc. 数据库,并且可以提供实时反馈以鼓励电能的更高效利用。
Jul, 2017
该论文提出了一种新颖的安全强化学习算法,用于虚拟电力厂在日前电力市场上的战略竞标,同时考虑了虚拟电力厂内部复杂的物理约束,并结合 DDPG 方法设计了投影安全屏障和奖励机制,最终在 IEEE 13-bus 网络上展示了提出方法的有效性。
Jul, 2023
在研究中,我们采用了两种方法来解决情境信息的问题:情境 Thompson 抽样和受监督的强化学习,这可以加速搜索最佳答案的迭代。为了研究量化市场中的战略交易,我们将之前的金融交易策略(常比例保险组合)与深度确定性策略梯度相结合。实验结果表明,两种方法都可以加速强化学习的进展,以获取最优解。
Oct, 2023
本文提出了一个新的框架,使用长短期记忆(LSTM)时间序列预测和深度确定性策略梯度 (DDPG) 多智能体强化学习算法来解决可再生能源不确定性在智能电网中带来的挑战和分布能源管理中的新挑战,旨在同时考虑两个目标,从而实现对批发和零售市场的高效能源管理,并证明建议的解决方案显着提高了载荷服务实体(LSE)的利润,同时使用 DDPG 代理实现人工智能电池充电 / 放电,以最大化分布式 PV 和电池安装用户的利润。
Feb, 2023
提出了一种新颖的上下文元图增强学习 (Meta-GRL) 方法,用于高度通用的多阶段最优调度策略,通过引入更通用的上下文马尔可夫决策过程 (MDP) 和可扩展的图表示来实现更通用的多阶段随机电力调度建模,经过足够的离线学习后,该方法可以快速适应未知和未定义的情景。
Jan, 2024
该研究利用最新的强化学习算法和真实的电力网络环境,提出了一种系统的解决方案来解决传统能源调度面临的问题,并为电力系统提供了一个可持续的低碳未来。
Mar, 2023
本研究提出了一种基于 DRL 和 GCN 的分布式学习算法,使代理人能够通过从环境中获取反馈来改进投标策略并增加利润,同时将空间系统拓扑的信息输入到 GCN 中,帮助代理人了解系统结构并提高决策的准确性。在 IEEE 30-bus 系统和 IEEE 39-bus 系统的测试中表明该算法具有较好的泛化能力和更高的利润。
Aug, 2022
通过引入一个新的强化学习框架来解决可再生能源系统中设计和控制的协同优化问题,可以提高可再生能源的整合和系统效率,推动能源管理领域的强化学习应用,实现可再生能源的更高效和更有效利用。
Jun, 2024