以强化学习为基础的自主 Formula SAE 车辆控制的赛车之路
使用深度强化学习(DRL)和逆强化学习(IRL)将局部观察到的锥体位置映射到期望的转向角度以进行赛道跟踪。两种先进算法,软演员批评(SAC)和对抗逆强化学习(AIRL),在代表性模拟中训练模型。在仿真和现实世界中进行的测试表明,这两种算法都可以成功训练用于局部路径跟踪的模型。提出了未来工作的建议,以使这些模型能够适用于完整的 Formula:SAE 车辆。
Jan, 2024
该研究使用强化学习算法开发和训练了一个代理机器人,在模拟环境中利用激光和速度数据导航赛车,并在真实赛车场景中进行了实验评估,展示了强化学习算法在提高自主驾驶赛车性能方面的可行性和潜在优势。
Sep, 2023
该研究描述了在模拟环境中开发自动驾驶算法并将其部署到真实汽车上的过程中所涉及的挑战,着重研究了使用单个摄像头作为输入推断汽车方向盘角度的深度神经网络的训练、验证和部署等方面,以及如何通过模拟来加强软件的稳定性和性能。
May, 2019
本论文基于强化学习(RL)与 Deep Q-Learning 框架以及 CARLA 仿真环境,探索了一种实现自动驾驶车辆在高速行驶时保持车道并避让其他车辆的策略,以提高交通安全性。
Jun, 2023
本文提出了一种基于深度强化学习、高保真的物理模拟和课程进展奖励的学习系统,用于 Gran Turismo Sport 自动汽车竞赛,并在超过 50,000 名人类玩家数据集中,实现了超越自带 AI 和人类最快驾驶者的自主赛车性能。
Aug, 2020
头对头自主赛车的最优策略研究中,我们提出了一个基于课程学习的框架来逐步过渡到更复杂的真实环境,以教授强化学习代理一个更接近最优策略的方法,并提出了基于控制屏障函数的安全强化学习算法,既能有效保证代理的安全性又不会牺牲策略的最优性。
Aug, 2023
移动机器人系统中,提出了一种分散拓展的扩展卡尔曼滤波器和一种通过专家演示器训练的强化学习路径跟踪控制器的新颖方案,实验结果表明,FEKF 能够改善移动机器人位置的估计,AI 解决方案能够胜过基于模型的控制策略和演示器,同时通过一系列性能指标对比评估与基准控制器。
Jan, 2024
DeepRacer 是一个用于 RL 端到端实验的平台,可以用来系统地研究智能控制系统开发中的关键挑战。该平台的应用展示了如何使用 RL 和单眼摄像头来训练 1/18 比例的小车自主学习驾驶,尤其展示出了一个能够通过使用原始相机图像观察和无模型学习方法执行鲁棒路径规划的机器人控制代理的 RL 算法。
Nov, 2019
研究利用深度强化学习提出了一个用于自动驾驶的框架,其中包含了包含循环神经网络的信息集成和关注模型用于减少嵌入式硬件的计算复杂度,并在 TORCS 仿真器中验证了其自主操纵能力
Apr, 2017