本文提出使用强化学习和马尔科夫决策过程 (MDP) 来协调多个电动汽车充电点,通过减少训练时间和使用线性空间和时间复杂度的新 MDP 公式,改善了业内现有技术,提高了充电需求协调达 40-50%的性能。
Mar, 2022
使用深度强化学习(特别是深度 Q 网络)确定户用电动汽车的成本减少充电策略,该策略可为终端用户节约超过 20% 的电费开支。
Oct, 2023
本文研究了如何通过反应需求实现频率调控来整合高比例的可再生能源资源对电力网的影响。作者提出一个分散的代理模型,通过多代理近端政策优化和本地化通信进行训练。同时,文中探讨了两种通信框架:手工设计或通过目标化的多代理通信进行学习。最终的政策可以良好地、稳健地完成频率调节,并可以在恒定处理时间下无缝扩展到任意数量的房屋。
Jan, 2023
基于深度强化学习的状态对抗方式,提出了一种创新的无模型韧性调度方法,用于具备集成需求响应功能的集成能源系统,该方法能够充分应对可再生能源和负载所带来的不确定性,并减轻网络攻击对调度策略的影响,确保各种能源的稳定供求,并具备抵御网络攻击的韧性。
Nov, 2023
本文提出了一种创新的非参数约束策略优化方法,解决了基于价格的需求响应问题中,如何保证策略的稳定性和最优性的问题,并且采用一种高效的策略优化算法,得到了比现有强化学习算法更好的表现。
Jun, 2023
本研究基于强化学习模型,使用马尔可夫决策过程来协调多个充电站,通过提出改进的成本函数使得学到的控制策略始终满足不具备任何灵活性的充电需求,同时使用真实世界数据对比了两种方法在负荷平整的情况下学习强化策略的性能和策略决策的总体性能。
本研究首次探讨使用深度强化学习在智能电网环境下实现建筑能源管理系统的在线调度优化,所提出的方法被验证可用于大规模数据资源中,如 Pecan Street Inc. 数据库,并且可以提供实时反馈以鼓励电能的更高效利用。
Jul, 2017
该研究提出了一种多目标仿真模型和不侵入式的基于占用状态预测的方法,以开发一种适用于智能住宅的 DRP 应用程序,其中同时考虑了不确定性和鲁棒性,并通过将一些电器操作移至低峰时段,降低了成本 13.2%,并降低空调温度设定点。
May, 2023
通过使用逆强化学习模型,本文提出了一种在不要求用户明确表明需求和意愿的情况下,通过利用用户过去的消费数据创建用户每日家用电器时间表,并激励他们继续参与需求响应服务的提供。
该研究提出了一种基于监督学习的新策略,利用神经网络和分段线性方程来优化多区域建筑物中 HVAC 系统的需求响应,结果显示该策略在实用性和计算时间方面都非常有效,同时确保了建筑物居民的热舒适性和 HVAC 系统的成本效益。
Apr, 2019