通过结构建模驾驶行为相似性,减少交通拥堵的 Piecewise Constant Policy 和基于驾驶员特征条件的个性化残差策略,成功减轻交通拥堵并适应不同驾驶员行为,平均速度比基准值提高 4 至 22%。
Aug, 2023
通过引入一种新型的非对称的演员 - 评论家模型,采用单智能体强化学习来学习分散协作驾驶策略,利用掩码的注意神经网络处理实际交通流的动态特性和部分可观测性,我们的模型在不同交通情景中表现出提高道路系统中各个瓶颈位置交通流的巨大潜力,并且通过探索自动驾驶车辆遵守交通规则的保守驾驶行为所带来的挑战,实验证明我们提出的协作策略可以在不影响安全性的情况下缓解潜在的交通减速。
Mar, 2024
本研究使用深度强化学习来生成一种连续控制规划方案,让自动驾驶汽车在拥挤的道路上实现车道变换,并与基于模型预测控制算法进行对比测试。
Sep, 2019
本研究探讨了在高密度交通条件下,通过应用模仿学习算法,对未来自动驾驶车辆实现控制策略和现实限制的协调,以提高网络能效,结果显示该算法能通过仅使用本地观测数据,提高交通网络能效达 15%。
Jun, 2022
探讨自动驾驶汽车的出现如何增加网络吞吐量,激励用户选择更优路径以便缓解拥堵,讨论自私均衡和互惠均衡之间的比较,并通过交通微观模拟实现了总延迟减少的目标。
Oct, 2018
人工驱动车辆导致交通拥堵,增加燃油消耗、碰撞风险和减少容量利用率。本研究通过分析真实世界中的人类驾驶轨迹,提取了在车跟随过程中的加速行为,并将这些行为与之前研究中的自动驾驶车辆结合起来,以减少拥堵并评估其安全性、效率和稳定性。此外,还引入了基于强化学习的自动驾驶车辆,利用拥堵阶段分类神经网络来优化 “安全 + 稳定” 或 “效率”,并在不同密度、配置和渗透率的混合交通控制环境中进行评估,并与现有的自动驾驶车辆进行比较。
Nov, 2023
优化自动驾驶车辆的交通动态是至关重要的,本文通过采用强化学习算法 —— 近端策略优化(PPO),得出用于最小化交通拥堵和污染的自动驾驶车辆选择的新方法,并通过实证分析证明该方法可以降低时间和污染水平。
Sep, 2023
通过包含社会行为和驾驶员个人目标的行为模型,利用贝叶斯滤波和对于不明确意图的附近车辆行为的预测,开发了一种基于滑动时域控制的决策策略,以在线估计其他驾驶员的意图。通过与博弈论控制器和真实世界交通数据集的模拟研究进行比较,验证了所提出的决策策略的有效性。
通过使用田纳西州 I-24 高速公路的实际轨迹数据,在一条车道的仿真中运行深度强化学习方法来训练减少能耗的波浪平滑策略,我们展示了在低 4% 的自动驾驶车辆渗透率下,对于出现许多停停走走波浪的轨迹,可以实现超过 15% 的显著节省燃料,分析了控制器的平滑效果以及对仿真中添加车道变更和消除下游信息的鲁棒性。
Jan, 2024
提出了一种基于深度强化学习的信号控制系统,该系统可以根据交通状况动态调整信号并使用重新路由技术平衡道路网络上的车辆,以帮助优化交通流的管理和减少拥堵。