交通信号控制方法调查
本文基于强化学习方法提出一种针对城市交叉口交通信号控制的新模型,采用神经网络作为 Q 函数的近似器进行复杂的信号控制,使用开放源代码的交通模拟器 SUMO 进行实验,结果表明该模型能够显著降低排队长度和等待时间,与基准方法相比具有更好的收敛性和泛化性能。
May, 2019
本文研究了一种通过马尔可夫决策过程和强化学习算法来优化交通信号控制的方法,使用模拟软件 SUMO 模拟了一个城市交叉口,讨论了循环调度器,反馈控制机制和深度 Q 网络等不同策略及其对交通流的影响,最终在班加罗尔的一个真实交叉口进行了测试验证。
Sep, 2021
提出一种用马尔科夫决策过程描述控制器设计问题和解决方案建模的新型 ATSC 方法,并分析现有研究中常被忽视的系统性问题,并提出未来可能的解决方向。
Nov, 2022
使用人工智能和强化学习方法,通过对监控摄像头图像的实时处理,结合 YOLOv9-C 模型进行车辆检测,以及在 OpenAI Gym 的城市环境模拟器中使用多因素强化学习和 DQN 彩虹算法,成功确定并应用交通信号灯的最佳时机。此外,与伊朗车辆图像进行转移学习和重新训练,使模型的准确性得到提高。研究结果表明,该方法在分析监控摄像头和寻找最佳时机的两个部分都具有较高的准确性,且优于先前研究。
May, 2024
提出了一种交通信号控制系统,利用现代深度强化学习方法构建适应性交通信号控制器,通过对作为输入的交通密集信息进行 Q-learning 训练并使用经验回放,与一种单隐藏层神经网络通讯信号控制器相比,实现了平均累计延迟减少 82%,平均队列长度减少 66%,平均旅行时间减少 20%。
Nov, 2016
通过强化学习技术实现道路交通信号控制的自适应,并针对交通事故的发生率,提出了一种安全性增强的残差强化学习方法,实验表明该方法可以显著降低碰撞率并提高交通流动性。
Nov, 2022
本篇研究检验了强化学习对于交通信号控制中的应用,探讨了其中的挑战与不确定性,提出了需要更多系统性思维的研究来解决这些挑战。
Jun, 2022
该研究报告介绍了一种名为 EcoLight 的奖励塑造方案,用于强化学习算法中,既可以减少二氧化碳排放,又可以在诸如旅行时间之类的指标上获得具有竞争力的结果。该研究比较了采用表格型 Q 学习、DQN、SARSA 和 A2C 算法的性能,使用的指标包括旅行时间、二氧化碳排放、等待时间和停车时间,考虑了多种道路使用者(卡车、公交车、汽车)和不同污染水平的多个场景。
Oct, 2023
本文提出了一种利用深度强化学习算法从实时交通原始数据中自动提取所有有用特征(机器制造的特征)并学习适应性交通信号控制的最优策略,以减少车辆延迟时间的方法,并通过模拟实验结果证明,与其他两种流行的交通信号控制算法相比,我们的算法将车辆延迟缩短了 47%和 86%。
May, 2017
由于城市化进程不断加速,解决信号控制问题的重要性也日益突出。本文分析了各种现有方法,并提出了增加代理数量以减少平均旅行时间的选项。通过 2 个数据集进行了实验。结果表明,在某些情况下,多个代理的实施可以改善现有方法。至于精调的大型语言模型方法,在所有度量指标上都有较小的增强。
Jun, 2024