本文提出了一种简化的车辆微观模拟方法,并使用深度强化学习优化了具有不同车辆组成的六个交通系统的控制策略,发现了类似于波浪消减、交通信号和匝道计量等的多种新行为,并分析了这些行为以获得可解释的控制策略。
Jul, 2022
通过随机化基于交互的社交车辆的奖励函数,本研究引入了一种高效的方法来训练多样化的社交车辆驾驶策略作为单一的元策略,并提出了一种训练策略来增强自车驾驶策略的鲁棒性。该方法成功地学习到了在具有挑战性的未控制 T 字形交叉口情景中,对具有分布之外行为的社交车辆场景具有很好泛化性的自车驾驶策略。
Jul, 2023
本文分析了真实的共享电动出行系统的运营模式、使用模式及扩张动态,并以此为基础,利用多智能体强化学习建立了一个高保真度的电动出行共享仿真器,在此基础上提出了一种新的基于动态优化的级联策略的解法,显著提高了系统对于未来需求的满足度和增加收益。
Nov, 2022
采用数据高效的深度强化学习方法研究车辆轨迹控制,发现新的模型推理方法并将动力学预测和车辆定位分离,比传统方法更高效地学习控制策略。
Nov, 2023
本文介绍一种主动驾驶辅助方法,使用剩余策略学习代理人来提供剩余操作以平衡燃料消耗和其他驾驶员适应性目标。通过实施在各种车辆尾随情境下的模拟商用车上,我们发现与基线源策略相比,剩余策略学习代理人很快学习到了显着改进的策略,但在某些方面不如从头开始训练的强化学习代理人所能达到的最终结果。
Dec, 2022
研究通过分布式学习实现机器人舰队在各种环境中获得多样化技能的方法,并介绍了 fleet-merge 方法用于合并参数化的递归神经网络策略,在 Meta-World 环境中有效地合并 50 个任务的策略,并在机器人工具使用基准测试中验证了 fleet-merge 的功效。
Oct, 2023
本文提出了针对现代交通运输领域中节约能源消耗和减少温室气体排放的需求,采用深度强化学习控制体方法,模拟实现了可交互的节油驾驶辅助代理,以最小化油耗为目标,并通过与基准控制器性能的比较,验证了该代理策略的有效性。
本文针对不断增长的城市人口和道路上日益增加的车辆,以保证交通的高效管理和安全成为了一个重要挑战。为了解决这些问题,本文以联邦深度强化学习(FDRL)技术为基础,对车辆避碰控制进行了全面研究。我们的主要目标是最小化行程延误,提高车辆的平均速度,同时注重安全和数据隐私保护。为了达到这一目标,我们针对本地模型深度确定性策略梯度(DDPG)和全局模型联邦深度确定性策略梯度(FDDPG)进行了比较分析,以确定它们在优化车辆避碰控制方面的效果。研究结果表明,相比于 DDPG 算法,基于 FDDPG 算法能更有效地控制车辆,避免碰撞。尤其是,基于 FDDPG 的算法在减少行程延误和提高平均速度方面取得了显著成效。
Aug, 2023
本文提出了一种基于深度增强学习和动态规划的算法 Finite-Horizon-DDPG-SS,用于解决车队中车辆跟随控制问题,通过真实驾驶数据的仿真验证了该算法的有效性,并且能够提高车队的安全性和稳定性。
Jun, 2022
移动机器人系统中,提出了一种分散拓展的扩展卡尔曼滤波器和一种通过专家演示器训练的强化学习路径跟踪控制器的新颖方案,实验结果表明,FEKF 能够改善移动机器人位置的估计,AI 解决方案能够胜过基于模型的控制策略和演示器,同时通过一系列性能指标对比评估与基准控制器。
Jan, 2024