基于神经网络的车联网和自动驾驶车辆的生态驾驶控制
本文提出一种基于强化学习的连接电动汽车经济驾驶框架,旨在提高车辆能源效率,并在交通信号灯路口中重新定义汽车后续策略、换道策略以及车辆加速控制决策,从而优化车辆动作方案,基于 SUMO 软件单车视角和流量视角的评估表明,该策略能够显著减少非人为驾驶车辆的能源消耗,实现了减排目的。
Jun, 2022
本文提出了针对现代交通运输领域中节约能源消耗和减少温室气体排放的需求,采用深度强化学习控制体方法,模拟实现了可交互的节油驾驶辅助代理,以最小化油耗为目标,并通过与基准控制器性能的比较,验证了该代理策略的有效性。
Dec, 2022
本研究探讨将 Safe Off-policy Model-Based Reinforcement Learning 算法应用于连接的自动化混合动力车辆的生态驾驶问题。结果表明,在模拟实验中,该算法表现出更高的平均速度和更好的节能效果,与基线控制器相比,其减少了超过 21% 的燃料消耗,同时保持了可比的平均速度。
May, 2021
通过使用田纳西州 I-24 高速公路的实际轨迹数据,在一条车道的仿真中运行深度强化学习方法来训练减少能耗的波浪平滑策略,我们展示了在低 4% 的自动驾驶车辆渗透率下,对于出现许多停停走走波浪的轨迹,可以实现超过 15% 的显著节省燃料,分析了控制器的平滑效果以及对仿真中添加车道变更和消除下游信息的鲁棒性。
Jan, 2024
该研究使用贝叶斯方法建模道路片段的能量消耗,开发了一个在线学习框架并分析了 Thompson 采样和 Upper Confidence Bound 等探索策略,将在线学习框架扩展到多车自适应导航。最后,使用卢森堡 SUMO 交通数据集进行多个实际实验以证明我们方法的性能。
Mar, 2020
本文提出了一种简化的车辆微观模拟方法,并使用深度强化学习优化了具有不同车辆组成的六个交通系统的控制策略,发现了类似于波浪消减、交通信号和匝道计量等的多种新行为,并分析了这些行为以获得可解释的控制策略。
Jul, 2022
基于学习的智能能源管理系统对于插电式混合动力电动汽车 (PHEVs) 的高效能源利用至关重要,然而,其应用在现实世界中面临着系统可靠性的挑战,这阻碍了原始设备制造商 (OEMs) 的广泛接受。本文通过建立基于物理和数据驱动模型的 PHEV 模型,聚焦于高保真度训练环境,并提出一个以真实车辆应用为导向的控制框架,将基于扩展时间尺度的强化学习 (RL) 能源管理与等价耗电量最小化策略 (ECMS) 相结合,以提高实际适用性,同时改善现有研究中基于瞬时驾驶循环和动力系统状态的等效因素评估方法的缺陷。最后,进行全面的仿真和硬件在环验证,证明了所提出的控制框架在燃油经济性方面相对于自适应 ECMS 和基于规则的策略的优势。与直接控制动力系统组件的传统 RL 架构相比,所提出的控制方法不仅能实现类似的最优性,而且还显著提高了能源管理系统的干扰抗性,在 OEMs 的真实车辆应用中提供了一种有效的基于 RL 的能源管理策略的控制框架。
Jun, 2024
本文提出一种基于强化学习的环保行车控制策略,通过对不同交通场景的模拟比较,在全自动驾驶交通方式下可将燃油消耗降低 18%, CO2 排放降低 25%,同时提高 20% 的车速,并且即使只有 25% 的自动驾驶汽车,也能带来至少 50% 的燃油和排放降低效益
Apr, 2022
本研究构建了一个非零和博弈框架,在其中考虑了多车相互作用并采用了一个有效的方法 —— 基于模型的强化学习方法,用于解决耦合的哈密顿 - 雅可比 - 贝尔曼方程,来推导纳什均衡驾驶策略,并在非信号化交叉口进行了验证。
Feb, 2023
本文提出了一种利用深度学习的基于模仿学习的概率驾驶模型,可以综合利用摄像机,激光雷达和雷达的信息来应对各种环境条件和动态障碍物,具有优异的泛化性能。
May, 2020