用于混合交通编队中安全巡航的物理增强残差策略学习(PERPL)
本研究提出了一种基于深度强化学习的自适应编队交叉口控制模型,该模型采用第一到达优先策略和深度 Q 算法来决定车辆通行的优先级和最佳编队大小,该模型相较于现有方法在旅行效率和燃油节省方面表现出卓越的性能。
Jun, 2022
该论文提出了一种学习连接和自动化车辆(CAV) 与进入匝道的人驾驶车辆(HDV) 进行安全控制的方法,使用高度信息状态模型,学习了混合交通情况下 HDV 的行为,并生成安全控制策略,然后在 CAV 与 HDV 交互的模拟场景中进行了验证。
Apr, 2023
该论文提出了一种名为Physics-Enhanced Residual Learning(PERL)的新型框架,将基于物理的模型与数据驱动模型相结合,用于交通状态预测。PERL模型综合了物理模型和残差学习模型,其预测结果是基于物理模型和预测的残差之和,保持了物理模型的可解释性并降低了对数据的要求。实验证明,PERL模型在小规模数据集上取得了更好的预测效果,并且在训练过程中收敛更快,与数据驱动模型相比使用更少的训练样本达到了相似性能。敏感性分析也证明了使用其他残差学习模型和基于物理的车辆跟驰模型时PERL模型的可比较性能。
Sep, 2023
人工驱动车辆导致交通拥堵,增加燃油消耗、碰撞风险和减少容量利用率。本研究通过分析真实世界中的人类驾驶轨迹,提取了在车跟随过程中的加速行为,并将这些行为与之前研究中的自动驾驶车辆结合起来,以减少拥堵并评估其安全性、效率和稳定性。此外,还引入了基于强化学习的自动驾驶车辆,利用拥堵阶段分类神经网络来优化“安全+稳定”或“效率”,并在不同密度、配置和渗透率的混合交通控制环境中进行评估,并与现有的自动驾驶车辆进行比较。
Nov, 2023
通过使用田纳西州I-24高速公路的实际轨迹数据,在一条车道的仿真中运行深度强化学习方法来训练减少能耗的波浪平滑策略,我们展示了在低4%的自动驾驶车辆渗透率下,对于出现许多停停走走波浪的轨迹,可以实现超过15%的显著节省燃料,分析了控制器的平滑效果以及对仿真中添加车道变更和消除下游信息的鲁棒性。
Jan, 2024
使用先进的人类驾驶车辆模型和高斯过程学习相结合的方法来预测人类驾驶车辆的行为,并利用该模型开发了一种增强型模型预测控制策略,以提高混合车辆编队的安全性和运行效率。
Apr, 2024
通过耦合的偏微分方程和常微分方程模型,本研究着眼于发展针对车队控制的Dyna式计划和学习框架,旨在减少燃料消耗,模拟结果验证了我们宏观模型在混合自治设置中建模车队的有效性,与传统方法相比,燃料消耗明显减少了10.11%。
May, 2024
我们提出了一种新颖的“CAV-AHDV-CAV”车辆跟随框架,该框架将两辆CAV之间的HDV序列视为一个单一实体,消除了个体驾驶员行为的噪声。通过对车辆平衡状态的分析和采用一种状态融合策略,我们的深度强化学习方法在多样化的数据集上进行训练和测试,包括超过70,000个车辆跟随实例,超越基线模型在避免碰撞、与前后车辆保持平衡以及实现最低时间间隔标准差等方面的效果。这些结果证明了我们的方法在开发混合交通的强健CAV控制策略方面的有效性,我们的模型有潜力减轻交通振荡,提高交通流效率并增强整体安全性。
Jun, 2024
合作自适应巡航控制(CACC)在连接和自动驾驶汽车(CAVs)中提高交通效率和安全方面扮演了重要角色。强化学习(RL)在优化CACC的复杂决策过程中表现出了有效性,从而改善了系统性能和适应性。多智能体强化学习(MARL)通过集中训练和分布执行(CTDE)使多个CAVs之间实现协调行动,具有显著的潜力。然而,MARL在面临可扩展性问题时往往面临挑战,尤其是CACC车辆突然加入或离开车队时导致性能下降。为了解决这些问题,我们提出了一种通信感知强化学习(CA-RL),包括一个通信感知模块,通过前向和后向信息传输模块提取和压缩车辆通信信息。这样可以在CACC流量中实现高效循环信息传播,确保策略的一致性,并减轻CACC中MARL的可扩展性问题。实验证明,CA-RL在各种交通场景中明显优于基准方法,实现了更好的可扩展性、稳健性和整体系统性能,并能在参与车辆数量变化时保持可靠的性能。
Jul, 2024
本研究解决了模型基强化学习在复杂环境中准确建模的挑战,提出了一种知识驱动的模型基剩余强化学习框架,以提升学习效率。通过将交通专家知识融入虚拟环境模型,本方法显著改善了CAV轨迹控制任务中的学习效率和政策优化,实现了比基线代理更优的表现。
Aug, 2024