使用强化学习和基于代理的建模实现微观自组织城市交通控制
我们提出了一种方法,通过随机化基于规则的微观交通流的车辆跟随模型和变道模型的某些参数来随机化周围车辆的驾驶风格和行为,发现在高保真度微观交通流下训练的策略相比其他微观交通流下训练的模型具有更高的成功率和更好的计算奖励。
Mar, 2024
研究使用基于强化学习的 CityFlow 交通模拟器,该模拟器提供更高效的交通网络和流量仿真,可支持智能交通方面的机器学习研究,并支持更广泛的交通研究。
May, 2019
本文提出了一种简化的车辆微观模拟方法,并使用深度强化学习优化了具有不同车辆组成的六个交通系统的控制策略,发现了类似于波浪消减、交通信号和匝道计量等的多种新行为,并分析了这些行为以获得可解释的控制策略。
Jul, 2022
本文基于强化学习方法提出一种针对城市交叉口交通信号控制的新模型,采用神经网络作为 Q 函数的近似器进行复杂的信号控制,使用开放源代码的交通模拟器 SUMO 进行实验,结果表明该模型能够显著降低排队长度和等待时间,与基准方法相比具有更好的收敛性和泛化性能。
May, 2019
本文研究智能城市中的交通信号优化控制问题,通过多智能体强化学习的新分散控制架构和图学习算法,提出了一种新的去中心化控制策略,增强了环境可观测性以抓取交通信号的时空关联性,实验证明该方案优于现有的分散算法。
Nov, 2023
提出了一种交通信号控制系统,利用现代深度强化学习方法构建适应性交通信号控制器,通过对作为输入的交通密集信息进行 Q-learning 训练并使用经验回放,与一种单隐藏层神经网络通讯信号控制器相比,实现了平均累计延迟减少 82%,平均队列长度减少 66%,平均旅行时间减少 20%。
Nov, 2016
为了缓解城市交通拥堵问题并提高交通效率,本文提出了一种联合优化方法,使用多智能体深度强化学习(MADRL)来进行交通信号控制和车辆路由的信号化道路网络。通过建立代理之间的联系和共享观察和奖励,促进了代理之间的交互和合作,增强了个体训练。数值实验表明,我们的信号控制和车辆路由的集成方案在提高交通效率方面优于单独控制信号时间或车辆路线。
Oct, 2023
提出了一种基于深度强化学习的信号控制系统,该系统可以根据交通状况动态调整信号并使用重新路由技术平衡道路网络上的车辆,以帮助优化交通流的管理和减少拥堵。
Jun, 2022
本研究基于批量强化学习的方法,运用基于惩罚项的自适应奖励方式在普通的循环交通信号控制策略下,构建出一个马尔可夫决策过程(MDP)的学习框架,不仅提高了对于不同分布情境的管理优化,还显著提高了交通信号控制的效率。
Jan, 2022
本文提出了使用强化学习来实时优化交通灯周期的方法,并通过使用 Simulation Urban Mobility 模拟器进行深度 Q 网络算法的训练进行了案例研究。实验结果显示,平均紧急停车数量减少了 44.16%,显示了我们的方法减少交通拥堵和改善交通流的潜力。此外,我们讨论了未来研究和强化学习模型的改进方向。
Feb, 2024