强化学习的红绿灯控制
本文提出了使用强化学习来实时优化交通灯周期的方法,并通过使用 Simulation Urban Mobility 模拟器进行深度 Q 网络算法的训练进行了案例研究。实验结果显示,平均紧急停车数量减少了 44.16%,显示了我们的方法减少交通拥堵和改善交通流的潜力。此外,我们讨论了未来研究和强化学习模型的改进方向。
Feb, 2024
本篇论文通过研究深度强化学习在交通灯控制问题中的应用,证明在格网路网中智能行驶的 “绿波” 策略自然而然地出现,并且优于传统方法,这为提高交通效率提供了途径。
Feb, 2023
使用人工智能和强化学习方法,通过对监控摄像头图像的实时处理,结合 YOLOv9-C 模型进行车辆检测,以及在 OpenAI Gym 的城市环境模拟器中使用多因素强化学习和 DQN 彩虹算法,成功确定并应用交通信号灯的最佳时机。此外,与伊朗车辆图像进行转移学习和重新训练,使模型的准确性得到提高。研究结果表明,该方法在分析监控摄像头和寻找最佳时机的两个部分都具有较高的准确性,且优于先前研究。
May, 2024
提出了一种交通信号控制系统,利用现代深度强化学习方法构建适应性交通信号控制器,通过对作为输入的交通密集信息进行 Q-learning 训练并使用经验回放,与一种单隐藏层神经网络通讯信号控制器相比,实现了平均累计延迟减少 82%,平均队列长度减少 66%,平均旅行时间减少 20%。
Nov, 2016
本文提出了一种利用深度强化学习算法从实时交通原始数据中自动提取所有有用特征(机器制造的特征)并学习适应性交通信号控制的最优策略,以减少车辆延迟时间的方法,并通过模拟实验结果证明,与其他两种流行的交通信号控制算法相比,我们的算法将车辆延迟缩短了 47%和 86%。
May, 2017
本文基于强化学习方法提出一种针对城市交叉口交通信号控制的新模型,采用神经网络作为 Q 函数的近似器进行复杂的信号控制,使用开放源代码的交通模拟器 SUMO 进行实验,结果表明该模型能够显著降低排队长度和等待时间,与基准方法相比具有更好的收敛性和泛化性能。
May, 2019
该研究提出一种名为 RElight 的动态学习交通信号控制策略的模型,并结合随机集成学习方法以避免陷入局部最优结果。研究还引入了 UTD 比率以控制数据重用数量,以提高数据利用率并在合成数据和实际数据上进行了实验以证明该方法优于现有最优方法。
Mar, 2022
本文介绍了参加城市大脑挑战赛的详细解决方案,主要基于对深度 Q - 网络(DQN)在实时交通信号控制方面的扩展,在应用新设计的奖励函数和精心调整控制模式后,基于单个 DQN 模型的代理能够名列前 15 个团队,为实际道路网络信号控制提供了基线解决方案,也激发了进一步尝试和研究。
Aug, 2021
本文提出了一种基于相位竞争模型的交通信号控制方法 FRAP,它利用强化学习算法实现了自适应,具备更好的解决方案和更快的收敛速度,同时在不同的道路结构和交通情况下实现了卓越的普适性。
May, 2019