本文提出一种通过学习真实世界中的驾驶示范数据来学习神经驾驶策略的方法,并使用广义博弈对抗模型进行智能驾驶行为生成,同时介绍了解决多智能体驾驶建模中存在的问题的多智能体模型,并描述了奖赏信号修正的 reward augmented imitation learning (RAIL) 和 Burn-InfoGAIL 对潜在变化因素进行解耦的方法。在 NGSIM 实验数据集上,成功地模拟了高速公路上的驾驶行为。
Jun, 2020
通过模拟驾驶场景来验证自主车辆的安全性,GAIL 可学习到具有代表性的人类驾驶模型,但在多主体驾驶情境中存在困难,我们通过基于课程学习的参数共享方法扩展 GAIL 以解决这些缺点,PS-GAIL 方法生成的策略在多主体设置下表现优异且能够捕捉人类驾驶员的紧急行为。
Mar, 2018
通过使用变分自编码器和条件递归神经网络,本文研究了一种新的自动驾驶汽车仿真方法,通过学习驾驶员行为的克隆,并通过模拟道路中未来的事件来规划车辆行驶路线, 在不涉及像素空间成本函数的情况下优化转换模型,并且我们的方式可以在几帧内持续预测逼真的视频。
Aug, 2016
利用生成神经网络学习合成驾驶行为并使用控制器教练网络来模仿人类学习,通过在 Road Rash 游戏地图上测试模型的学习程度来验证模型的准确性。
Nov, 2016
使用 MGAIL 在密集城市自动驾驶方面进行了第一次大规模应用,通过使用分层模型和经过现实汽车采集的经验轨迹进行性能度量,并结合闭环 MGAIL 损失和开环行为克隆损失实现了稳健的导航策略。
Oct, 2022
本文介绍应用生成对抗性模仿学习方法,通过有限的高维仿人体运动演示数据,训练神经网络策略以产生类人的运动模式,并利用该方法构建子技能策略解决高维身体姿态控制任务。
Jul, 2017
本研究旨在通过模仿学习训练一个自动驾驶策略,以使其足够强大以驾驶真实汽车。为了应对复杂的驾驶场景,我们建议在专家的驾驶基础上引入扰动来合成数据,并使用额外的损失函数强化模型。实验证明这种模型能够在模拟环境中适应复杂的驾驶场景,并能够在真实环境下驾驶汽车。
Dec, 2018
本文提出了一种基于高层指令输入的条件性模仿学习方法,使得经过训练的车辆在测试时间内仍然能够遵循导航指令,本文在仿真实验和机器人卡车实验中对各种条件性模仿学习架构进行了评估和实践。
Oct, 2017
该研究提出了一种基于生成对抗性模型(TrajGAIL)的机器学习方法,使用生成建模方法学习城市车辆轨迹数据的潜在分布,从而能够生成与实际车辆轨迹相似的合成轨迹来解决数据稀疏性或数据隐私问题,并在模拟和现实数据集中得到显著的性能提升。
Jul, 2020
本研究提出了一种基于学习驾驶员模型的方法,该模型能够考虑不能直接观测到的变量,并学习区分四类不同驾驶员行为的编码。通过该方法,得到的驾驶策略在模拟真实驾驶行为方面比基准方法更为有效,并且策略选择的行为明显受到所提供的潜变量设置的影响。
Apr, 2017