电动汽车的广泛采用对电力分配网络和智能电网基础设施提出了几个挑战,特别是在高峰时段可能会显著增加电力需求。本文介绍了一种利用多智能体强化学习(MARL)框架的分布式和协作充电策略的新方法,该方法采用深度确定性策略梯度(DDPG)算法,适用于一个住宅社区中的一群电动汽车,在此社区中的所有电动汽车都连接到一台共享变压器。通过降低总体变异程度约 36%和平均充电成本约 9.1%,我们的理论和数值结果表明,尽管政策梯度方差较高且训练复杂度更高,CTDE-DDPG 框架显着提高了充电效率。
Apr, 2024
本文提出使用强化学习和马尔科夫决策过程 (MDP) 来协调多个电动汽车充电点,通过减少训练时间和使用线性空间和时间复杂度的新 MDP 公式,改善了业内现有技术,提高了充电需求协调达 40-50%的性能。
Mar, 2022
电动车充电控制中的多智能体深度强化学习方法结合了多电动车充电与放电过程以及射线分布网络的优化功率流,通过联邦式深度强化学习算法来有效地学习最佳的充电控制策略,从而平衡车辆与电网之间的利益和减少驾驶员的焦虑情绪。
Aug, 2023
本文提出了一个名为 Master 的框架,它采用深度强化学习方法,以智能化的方式推荐公共可用的电动汽车充电站,并联合考虑各种长期时空因素,包括充电基础设施、未来潜在的充电竞争等等。经过广泛的实验评估,Master 相对于九个基准方法具有最佳的综合性能。
Feb, 2021
该研究论文提出了一种多智能体强化学习的方法,以协调具有车对车能量交换的电动车充电,并考虑了电动车用户体验和去中心化执行的能力。实验结果表明,该方法相比传统优化算法具有卓越的性能和可扩展性。
电动车、无线充电、车辆调度、深度强化学习、移动能源传播是本研究的关键词。通过使用深度强化学习方法,本论文提出了一个车辆调度框架,可以显著提升电动车的行驶里程并更高效地部署移动能源传播装置。该模型具有实用性和可行性,可帮助用户最大程度地延长电动车的续航里程,并帮助道路管理机构或私营部门有效管理移动能源传播装置的部署。
该研究论文介绍了一种安全感知的强化学习算法,用于管理电动车充电站,并确保满足系统约束。该算法不依赖于对约束违规的显式惩罚,而且能在不确定环境中学习模式,以提高对电动车充电的管理效果。
Mar, 2024
使用深度强化学习(特别是深度 Q 网络)确定户用电动汽车的成本减少充电策略,该策略可为终端用户节约超过 20% 的电费开支。
Oct, 2023
针对分布式发电带来的电网分散电压控制的挑战,本文提出了一种可扩展的网络感知框架,利用网络结构截断评论家的 Q 函数输入,提高可伸缩性并减少训练期间的通信成本,成功在一个拥有 114 个分布式发电源的系统中进行了演示,为日益复杂的电力系统中的分散电压控制提供了有希望的解决方案。
Dec, 2023
本文分析了真实的共享电动出行系统的运营模式、使用模式及扩张动态,并以此为基础,利用多智能体强化学习建立了一个高保真度的电动出行共享仿真器,在此基础上提出了一种新的基于动态优化的级联策略的解法,显著提高了系统对于未来需求的满足度和增加收益。
Nov, 2022