交通信号控制的随机集成强化学习
提出了一种交通信号控制系统,利用现代深度强化学习方法构建适应性交通信号控制器,通过对作为输入的交通密集信息进行 Q-learning 训练并使用经验回放,与一种单隐藏层神经网络通讯信号控制器相比,实现了平均累计延迟减少 82%,平均队列长度减少 66%,平均旅行时间减少 20%。
Nov, 2016
本文基于强化学习方法提出一种针对城市交叉口交通信号控制的新模型,采用神经网络作为 Q 函数的近似器进行复杂的信号控制,使用开放源代码的交通模拟器 SUMO 进行实验,结果表明该模型能够显著降低排队长度和等待时间,与基准方法相比具有更好的收敛性和泛化性能。
May, 2019
本研究提出一种实时交通信号灯控制方法,使用深度 Q 学习,并结合奖励函数,考虑排队长度、延迟、旅行时间和吞吐量,通过根据当前交通状况动态决定相位变化。通过使用合成和实际交通流数据在中国杭州的一个路口进行验证,结果表明与传统的固定信号计划相比,该方法显著改善了车辆等待时间(57.1% 至 100%)、排队长度(40.9% 至 100%)和总行程时间(16.8% 至 68.0%)。
Aug, 2023
本文提出了一种利用深度强化学习算法从实时交通原始数据中自动提取所有有用特征(机器制造的特征)并学习适应性交通信号控制的最优策略,以减少车辆延迟时间的方法,并通过模拟实验结果证明,与其他两种流行的交通信号控制算法相比,我们的算法将车辆延迟缩短了 47%和 86%。
May, 2017
本研究基于批量强化学习的方法,运用基于惩罚项的自适应奖励方式在普通的循环交通信号控制策略下,构建出一个马尔可夫决策过程(MDP)的学习框架,不仅提高了对于不同分布情境的管理优化,还显著提高了交通信号控制的效率。
Jan, 2022
该研究提出了一种基于增强数据的强化学习方法来训练适用于不同结构的路口的通用模型,其中包括新的代理设计和数据增强方法,使得该模型的泛化性能更好,可以在 SUMO 交通模拟环境中测试其有效性,并成功将训练时间缩短了 80%,性能跟单一环境训练的模型非常接近。
Oct, 2022
本研究探讨了使用分布式强化学习方法控制交通信号灯的鲁棒性和泛化能力,提出了一种组合使用分布式和标准强化学习的策略集成方法,并使用隐式分位点网络(Implicit Quantile Networks)进行建模,在缺失的数据和不同的交通网络结构下取得了优秀的控制效果。
Jun, 2023
该论文提出了一种协作多目标多智能体深度再强化学习算法(COMMA-DDPG),用于交通信号控制的全局优化和减少延迟等待时间。该算法在真实的亚洲交通数据集上进行了评估,相比目前最先进的方法,成功地减少了 60%的延迟时间。
May, 2022
本论文详细研究采用深度强化学习(RL)算法解决交通拥堵问题,并开发了一个开源框架以评估这些算法在不同的交通模拟环境下的表现。通过考虑一系列外生不确定因素,如需求激增、容量减少和传感器故障等。我们得出了深度强化学习算法在交通控制领域的关键见解,并提出了具体的设计以减轻这些考虑过的外生不确定因素对系统的影响。
Apr, 2019