交通信号控制与减排的合作式多目标强化学习
该论文提出了一种协作多目标多智能体深度再强化学习算法(COMMA-DDPG),用于交通信号控制的全局优化和减少延迟等待时间。该算法在真实的亚洲交通数据集上进行了评估,相比目前最先进的方法,成功地减少了 60%的延迟时间。
May, 2022
为了缓解城市交通拥堵问题并提高交通效率,本文提出了一种联合优化方法,使用多智能体深度强化学习(MADRL)来进行交通信号控制和车辆路由的信号化道路网络。通过建立代理之间的联系和共享观察和奖励,促进了代理之间的交互和合作,增强了个体训练。数值实验表明,我们的信号控制和车辆路由的集成方案在提高交通效率方面优于单独控制信号时间或车辆路线。
Oct, 2023
本文研究智能城市中的交通信号优化控制问题,通过多智能体强化学习的新分散控制架构和图学习算法,提出了一种新的去中心化控制策略,增强了环境可观测性以抓取交通信号的时空关联性,实验证明该方案优于现有的分散算法。
Nov, 2023
该研究报告介绍了一种名为 EcoLight 的奖励塑造方案,用于强化学习算法中,既可以减少二氧化碳排放,又可以在诸如旅行时间之类的指标上获得具有竞争力的结果。该研究比较了采用表格型 Q 学习、DQN、SARSA 和 A2C 算法的性能,使用的指标包括旅行时间、二氧化碳排放、等待时间和停车时间,考虑了多种道路使用者(卡车、公交车、汽车)和不同污染水平的多个场景。
Oct, 2023
提出了一种交通信号控制系统,利用现代深度强化学习方法构建适应性交通信号控制器,通过对作为输入的交通密集信息进行 Q-learning 训练并使用经验回放,与一种单隐藏层神经网络通讯信号控制器相比,实现了平均累计延迟减少 82%,平均队列长度减少 66%,平均旅行时间减少 20%。
Nov, 2016
本文旨在提出一种使用深度学习 DDPG 算法来优化交通信号灯时序的方法,以应对交通数据信息量大的情况,并在简单和复杂的交通网络测试中获得了良好结果。
Mar, 2017
随着旅游需求的增加和城市交通状况的复杂化,采用多智能体深度强化学习 (MARL) 来控制交通信号成为热门话题。本文提出了一种基于智能体合作方案的 Friend-Deep Q-network (Friend-DQN) 方法,以用于城市网络中的多个交通信号控制,该方法可以减少状态 - 操作空间,从而加快收敛速度。通过使用 SUMO (城市交通仿真) 平台评估友好 DQN 模型的表现,并展示其相对于其他现有方法的可行性和优越性。
Jun, 2023
本文的研究探究了在使用深度神经网络架构和强化学习技术组合的方法来解决高维状态和行为空间下的复杂控制问题方面的最新进展,并构建了两种基于强化学习的算法:基于策略梯度和基于值函数的代理,以预测交通路口最佳的信号灯状态,通过 SUMO 交通模拟器实验表明,本方法在训练过程中没有出现不稳定问题。
Apr, 2017
为了实现联合国可持续发展目标,此论文提出一种名为 CoTV 的多智能体深度强化学习系统,可协同控制交通信号和连接自动驾驶车辆,以实现减少旅行时间、燃料和排放的目标,且易于部署和维护,并在多种实际城市场景中进行了有效性模拟研究。
Jan, 2022
本文研究了一种通过马尔可夫决策过程和强化学习算法来优化交通信号控制的方法,使用模拟软件 SUMO 模拟了一个城市交叉口,讨论了循环调度器,反馈控制机制和深度 Q 网络等不同策略及其对交通流的影响,最终在班加罗尔的一个真实交叉口进行了测试验证。
Sep, 2021