智能交通灯控制的多智能体强化学习
本文提出了一种可完全扩展和去中心化的多智能体 A2C 算法,以提高城市交通网络中的自适应交通信号控制的可观测性和减少学习难度,并在大型合成交通网格和摩纳哥城的大型实际交通网络下,通过模拟高峰流量动态,并将其与独立 A2C 和独立 Q-learning 算法进行比较,结果表明其优化性、鲁棒性和样本效率优于其他最先进的去中心化 MARL 算法。
Mar, 2019
本篇论文通过研究深度强化学习在交通灯控制问题中的应用,证明在格网路网中智能行驶的 “绿波” 策略自然而然地出现,并且优于传统方法,这为提高交通效率提供了途径。
Feb, 2023
本研究使用独立强化学习解决复杂的交通协同控制问题,提出了一种部分可观测弱协同交通模型来优化一组路口的整体交通状况,并提出了 Cooperative Important Lenient Double DQN(CIL-DDQN)算法来应对其他智能体策略变化引起的经验失效问题,且该算法在交通控制问题的几乎所有性能指标方面优于其他方法。
Apr, 2021
基于平衡学习理论和深度强化学习技术,我们提出了三种多智能体实例基学习(MAIBL)模型,用于协调在随机环境下的多智能体系统。通过在动态环境中展示瞬间学习能力和协调技巧,我们证明 MAIBL 模型相对于现有的多智能体深度强化学习模型更快地学习和实现更好的协调。我们还讨论了将认知洞察力整合到多智能体深度强化学习模型中的好处。
Aug, 2023
随着旅游需求的增加和城市交通状况的复杂化,采用多智能体深度强化学习 (MARL) 来控制交通信号成为热门话题。本文提出了一种基于智能体合作方案的 Friend-Deep Q-network (Friend-DQN) 方法,以用于城市网络中的多个交通信号控制,该方法可以减少状态 - 操作空间,从而加快收敛速度。通过使用 SUMO (城市交通仿真) 平台评估友好 DQN 模型的表现,并展示其相对于其他现有方法的可行性和优越性。
Jun, 2023
车辆信号控制对缓解现代城市交通拥堵有着重大影响。近年来,深度强化学习被广泛应用于该任务,表现出有希望的性能,但也面临许多挑战,如有限的性能和样本效率。为了应对这些挑战,我们提出了 MTLight,通过学习大量交通指标来增强智能体的观察,并构建多个辅助任务和监督任务来学习潜在状态,并使用任务特定特征和任务共享特征来使潜在状态更丰富。在 CityFlow 上进行了大量实验证明 MTLight 具有领先的收敛速度和渐近性能。我们在所有场景中模拟了高峰小时模式,并且结果表明 MTLight 具有高度的适应性。
Apr, 2024
本文研究智能城市中的交通信号优化控制问题,通过多智能体强化学习的新分散控制架构和图学习算法,提出了一种新的去中心化控制策略,增强了环境可观测性以抓取交通信号的时空关联性,实验证明该方案优于现有的分散算法。
Nov, 2023
提出了一种名为 SocialLight 的基于多智能体强化学习和分布式学习的交通信号控制方法,通过估计个体对本地邻域的边际贡献来学习交通控制策略,解决了传统方法中合作性不足和无法扩展等问题,并经过在两个交通模拟器上的标准基准测试,结果表明 SocialLight 具有更好的可扩展性和更好的性能。
Apr, 2023
提出了一个高学习效率、计算要求低的多目标、多智能体强化学习算法,适用于动态、分布式和嘈杂环境,通过稀疏和延迟奖励自动触发自适应的少样本学习,在智能交通系统中经过实证研究和与现有算法的比较,取得了更好的性能。
Mar, 2024
本文提出了一种基于区域划分的交通信号控制方法,使用多智能体强化学习技术,利用基于交通网络分区的扩展分支决斗 Q 网络算法,解决方法众多、非稳定性问题和优化联合行动问题,提高了解决方案的鲁棒性。
Mar, 2023