利用强化学习进行神经运动规划
本文研究了在自动驾驶车辆领域中,传感器技术、通信、安全、人工智能、机器学习、路线规划等多方面的应用,重点阐述了一种基于深度强化学习的层次运动规划方法,并以车跟、车道保持、轨迹跟踪、融合和交通压力等不同场景的自动驾驶为例,总结了现有解决方案的优缺点并提出未来研究方向和挑战。
Jan, 2020
本文介绍深度强化学习算法和基于力的运动规划算法的混合算法,在稠密和动态环境下解决分布式运动规划问题,并且能够更好地解决时间最优性和冲撞问题。
Jan, 2020
本文介绍了一种名为 MP3 的深度强化学习方法,它通过将运动原语(MPs)整合到深度 RL 框架中,实现了在整个学习过程中生成平滑轨迹的能力,同时有效地从稀疏且非马尔可夫奖励中学习,还具有在执行过程中适应环境变化的能力,该方法相较于现有的深度 RL 和 RL 结合 MPs 等方法,在复杂、稀疏奖励环境和需要重规划的领域中表现出更好的性能。
Jun, 2023
本文提出了一种基于强化学习的路径生成(RL-PG)方法,以用于移动机器人导航,无需事先探索未知环境。该方法采用深度马尔可夫模型优化的 RL 算法生成多个预测路径点,通过运动微调模块 fine-tuning 机器人的运动以确保跟踪预测点时的安全。通过在模拟和物理平台上的部署,证明本文提出的方法有效并且其成功率更高于 DWA-RL 和传统的 APF 导航方法。
Oct, 2022
本论文提出一种基于无标注训练数据的方法,结合深度动作条件视频预测模型和模型预测控制,使真实机器人能够进行非抓取操作,比如推动物体,并且可以处理训练过程中没有出现过的新物体。
Oct, 2016
本文提出了一种称为 SILP + 算法的自我模仿学习方法,将基于经验的规划有效地嵌入到学习架构中,从而缓解了机器人运动规划任务中的数据采集问题,并在复杂的运动规划任务中取得了更好的培训效率和更高稳定的成功率。
Jun, 2023
本文提出了一种实用于实际机器人任务 -- 如机器人操作 -- 的深度强化学习算法,并在无人监督的情况下使用自我监督的基于模型的方法来训练预测模型,通过选择指定像素、目标图像或图像分类器作为目标设定方法,探索实现前所未见的任务和物体的普遍泛化。
Dec, 2018
本文提出了一种使用深度强化学习进行的预测机动规划模型,该模型结合了预测模型和 RL 代理以实现舒适和安全的机动规划,通过使用历史驾驶数据训练预测模型,将周围车辆的过去和预测的未来位置嵌入到上下文感知的网格地图中进行学习,同时,RL 代理学习基于时空上下文信息进行机动规划,该模型在公开可用的 NGSIM US101 和 I80 数据集中进行了性能评估。
Jun, 2023
本文提出了一种基于深度强化学习的机器人操作器运动规划器,用于解决工业机器人在未知环境下的路径规划问题,实验结果证明其在路径长度和执行时间方面的优越性。
Jan, 2023