基于强化学习的混合整数最优控制:以混合动力车辆能量管理为案例研究
基于 Q 学习的算法解决线性离散时间系统的 H∞控制,并实现了模型无关的参数在线学习,从而将计算复杂性降低到 qu 的平方,其中 q 是状态变量、控制输入和干扰大小之和。
Sep, 2023
通过利用强化学习框架在选择网络收入管理作为案例研究中的强度控制,不需要事先对时间进行离散化,从而降低计算难度和离散化误差,并通过综合的数值研究展示了我们方法相对于其他最新技术基准的优势。
Jun, 2024
本文提出了一种新型框架,以在 FASTSim 开源车辆仿真工具中实现基于强化学习的能量管理策略,并在不同测试驾驶周期下对不同的车型进行评估,证明了这些基于强化学习的能量管理策略在提高能源效率方面的有效性。
May, 2023
本文使用深度强化学习技术研究了 IoT 驱动孤立微电网中柴油发电机(DG)的调度问题。旨在在可再生能源不确定性情况下充分利用可再生能源,通过离散 - 连续混合动作空间的 DRL 算法解决了二进制 DG 开关决策和连续能量调度决策,并针对旋转备用的情况提出了 POMDP 模型,实验显示其性能要优于同类算法。
Apr, 2023
本文提出一种基于强化学习的连接电动汽车经济驾驶框架,旨在提高车辆能源效率,并在交通信号灯路口中重新定义汽车后续策略、换道策略以及车辆加速控制决策,从而优化车辆动作方案,基于 SUMO 软件单车视角和流量视角的评估表明,该策略能够显著减少非人为驾驶车辆的能源消耗,实现了减排目的。
Jun, 2022
本文旨在探讨如何使用逆优化控制(IOC)从演示学习行为,具体应用于对高维机器人系统的扭矩控制。作者提出了一种算法,能够学习任意的非线性成本函数 (如神经网络);同时提出了一种针对 MaxEnt IOC 的高效的基于采样的近似方法。通过一系列模拟任务和真实的机器人操作问题的评估,该方法能够实现显著的任务复杂度和样本效率的提升。
Mar, 2016
基于学习的智能能源管理系统对于插电式混合动力电动汽车 (PHEVs) 的高效能源利用至关重要,然而,其应用在现实世界中面临着系统可靠性的挑战,这阻碍了原始设备制造商 (OEMs) 的广泛接受。本文通过建立基于物理和数据驱动模型的 PHEV 模型,聚焦于高保真度训练环境,并提出一个以真实车辆应用为导向的控制框架,将基于扩展时间尺度的强化学习 (RL) 能源管理与等价耗电量最小化策略 (ECMS) 相结合,以提高实际适用性,同时改善现有研究中基于瞬时驾驶循环和动力系统状态的等效因素评估方法的缺陷。最后,进行全面的仿真和硬件在环验证,证明了所提出的控制框架在燃油经济性方面相对于自适应 ECMS 和基于规则的策略的优势。与直接控制动力系统组件的传统 RL 架构相比,所提出的控制方法不仅能实现类似的最优性,而且还显著提高了能源管理系统的干扰抗性,在 OEMs 的真实车辆应用中提供了一种有效的基于 RL 的能源管理策略的控制框架。
Jun, 2024
本文提出了一种简化的车辆微观模拟方法,并使用深度强化学习优化了具有不同车辆组成的六个交通系统的控制策略,发现了类似于波浪消减、交通信号和匝道计量等的多种新行为,并分析了这些行为以获得可解释的控制策略。
Jul, 2022