基于强化学习的基于排队的环形交叉口节能驾驶
本文提出一种基于强化学习的连接电动汽车经济驾驶框架,旨在提高车辆能源效率,并在交通信号灯路口中重新定义汽车后续策略、换道策略以及车辆加速控制决策,从而优化车辆动作方案,基于 SUMO 软件单车视角和流量视角的评估表明,该策略能够显著减少非人为驾驶车辆的能源消耗,实现了减排目的。
Jun, 2022
本文提出一种基于强化学习的环保行车控制策略,通过对不同交通场景的模拟比较,在全自动驾驶交通方式下可将燃油消耗降低 18%, CO2 排放降低 25%,同时提高 20% 的车速,并且即使只有 25% 的自动驾驶汽车,也能带来至少 50% 的燃油和排放降低效益
Apr, 2022
研究采用深度强化学习算法,设计了行驶状态、行动空间和奖励函数,评估了 Deep Deterministic Policy Gradient (DDPG),Proximal Policy Optimization (PPO) 和 Trust Region Policy Optimization (TRPO) 等算法在自动驾驶通过环形道路方面的表现,并建立了评估方法,实验结果表明 TRPO 算法在安全性和效率方面优于 DDPG 和 PPO,而 PPO 在舒适水平方面表现最佳,审视了模型对其他驾驶场景的适应性和稳健性。
Jun, 2023
本文提出了使用强化学习来实时优化交通灯周期的方法,并通过使用 Simulation Urban Mobility 模拟器进行深度 Q 网络算法的训练进行了案例研究。实验结果显示,平均紧急停车数量减少了 44.16%,显示了我们的方法减少交通拥堵和改善交通流的潜力。此外,我们讨论了未来研究和强化学习模型的改进方向。
Feb, 2024
通过使用数据驱动的无监督机器学习对德国三个环岛的混合交通环境中的驾驶行为进行分类研究,结果显示大部分通过环岛的驾驶员可以被归类为保守型和正常型两种驾驶风格,而与行人或骑行者发生交互的驾驶员表现出不正常的行为,这可能增加了多模式交叉口发生事故的风险。该研究的结果对道路安全和先进驾驶辅助系统(ADAS)的发展具有重要意义。
Sep, 2023
本文提出了一种简化的车辆微观模拟方法,并使用深度强化学习优化了具有不同车辆组成的六个交通系统的控制策略,发现了类似于波浪消减、交通信号和匝道计量等的多种新行为,并分析了这些行为以获得可解释的控制策略。
Jul, 2022
本文提出了一种基于博弈理论模型的决策算法,用于自动驾驶汽车控制来应对环形路口的交通。该算法可以通过在线估计对手车辆的驾驶模式来对其进行调整。
Oct, 2018
本文基于强化学习方法提出一种针对城市交叉口交通信号控制的新模型,采用神经网络作为 Q 函数的近似器进行复杂的信号控制,使用开放源代码的交通模拟器 SUMO 进行实验,结果表明该模型能够显著降低排队长度和等待时间,与基准方法相比具有更好的收敛性和泛化性能。
May, 2019
本研究报告探讨了强化学习 (RL) 代理在停车迟迟及加速停车场景中所表现的多模态分布程度,并调查了 RL 控制的机器人车辆 (RVs) 在复杂交通环境中如何有效导航方向与其他车辆进行协作。通过分析多模态队列长度、流量和编队大小分布以及队列长度与流量之间的皮尔逊系数相关性,考虑了机器人和人驾驶车辆 (HVs) 的相同和不同行驶方向,还研究了因果推断模型,揭示在涉及不同行驶方向的场景中影响队列长度的因素。通过这些调查,本报告为混合交通 (RVs 和 HVs) 在交通管理和协调中的行为提供了宝贵的见解。
Nov, 2023
我们提出了一种方法,通过随机化基于规则的微观交通流的车辆跟随模型和变道模型的某些参数来随机化周围车辆的驾驶风格和行为,发现在高保真度微观交通流下训练的策略相比其他微观交通流下训练的模型具有更高的成功率和更好的计算奖励。
Mar, 2024