学习可解释的交通信号控制策略
该研究提出了一种基于学习的方法,用于复杂交叉口的信号控制,通过设计一种可解释的树状紧急程度函数,并利用遗传编程进行优化,相比交通领域中的先进方法和一种已知的深度强化学习方法,实验结果表明这种方法能够提高交通信号控制的性能。
Mar, 2024
本文基于强化学习方法提出一种针对城市交叉口交通信号控制的新模型,采用神经网络作为 Q 函数的近似器进行复杂的信号控制,使用开放源代码的交通模拟器 SUMO 进行实验,结果表明该模型能够显著降低排队长度和等待时间,与基准方法相比具有更好的收敛性和泛化性能。
May, 2019
本文研究了一种通过马尔可夫决策过程和强化学习算法来优化交通信号控制的方法,使用模拟软件 SUMO 模拟了一个城市交叉口,讨论了循环调度器,反馈控制机制和深度 Q 网络等不同策略及其对交通流的影响,最终在班加罗尔的一个真实交叉口进行了测试验证。
Sep, 2021
本文的研究探究了在使用深度神经网络架构和强化学习技术组合的方法来解决高维状态和行为空间下的复杂控制问题方面的最新进展,并构建了两种基于强化学习的算法:基于策略梯度和基于值函数的代理,以预测交通路口最佳的信号灯状态,通过 SUMO 交通模拟器实验表明,本方法在训练过程中没有出现不稳定问题。
Apr, 2017
该研究报告介绍了一种名为 EcoLight 的奖励塑造方案,用于强化学习算法中,既可以减少二氧化碳排放,又可以在诸如旅行时间之类的指标上获得具有竞争力的结果。该研究比较了采用表格型 Q 学习、DQN、SARSA 和 A2C 算法的性能,使用的指标包括旅行时间、二氧化碳排放、等待时间和停车时间,考虑了多种道路使用者(卡车、公交车、汽车)和不同污染水平的多个场景。
Oct, 2023
该论文提出了一种协作多目标多智能体深度再强化学习算法(COMMA-DDPG),用于交通信号控制的全局优化和减少延迟等待时间。该算法在真实的亚洲交通数据集上进行了评估,相比目前最先进的方法,成功地减少了 60%的延迟时间。
May, 2022
提出了一种交通信号控制系统,利用现代深度强化学习方法构建适应性交通信号控制器,通过对作为输入的交通密集信息进行 Q-learning 训练并使用经验回放,与一种单隐藏层神经网络通讯信号控制器相比,实现了平均累计延迟减少 82%,平均队列长度减少 66%,平均旅行时间减少 20%。
Nov, 2016
本文提出了一种利用深度强化学习算法从实时交通原始数据中自动提取所有有用特征(机器制造的特征)并学习适应性交通信号控制的最优策略,以减少车辆延迟时间的方法,并通过模拟实验结果证明,与其他两种流行的交通信号控制算法相比,我们的算法将车辆延迟缩短了 47%和 86%。
May, 2017