基于强化学习的清洁机器人路径规划
本研究通过比较监督式学习与强化学习算法,提出了一个适用于动作规划领域的 DDPG-MP 算法,该算法有助于解决运动规划中数据不足的问题,并在新领域的规划中实现了较快速度。
Jun, 2019
本文提出了一种基于深度强化学习的机器人操作器运动规划器,用于解决工业机器人在未知环境下的路径规划问题,实验结果证明其在路径长度和执行时间方面的优越性。
Jan, 2023
本文提出了一种基于强化学习的路径生成(RL-PG)方法,以用于移动机器人导航,无需事先探索未知环境。该方法采用深度马尔可夫模型优化的 RL 算法生成多个预测路径点,通过运动微调模块 fine-tuning 机器人的运动以确保跟踪预测点时的安全。通过在模拟和物理平台上的部署,证明本文提出的方法有效并且其成功率更高于 DWA-RL 和传统的 APF 导航方法。
Oct, 2022
该研究提出了基于强化学习的、连续状态和动作空间下的在线覆盖路径规划方法,用于处理未知环境的大型区域,并且结合了全局地图和局部感知输入,以及多尺度地图输入表示的观测空间构建,通过提出的全变差奖励,实现了学习路径上无漏洞被覆盖的目标。
Jun, 2023
本文提出采用具有先进 AI 算法的机器人起重机,在地震后提供基础设施重建所需的资源,并通过强化学习算法中的近端策略优化(PPO)进行三维提升路径规划,设计了详细的状态和奖励函数进行模型训练,结果显示在考虑障碍物的训练模型下,机器人起重机能够自动运输建筑材料至目标位置,并具备摆幅抑制、快速运输和避免碰撞。
Aug, 2023
通过利用基于地图的观测、动作掩码和折扣因子调度的近端策略优化(PPO)深度强化学习(DRL)方法,尤其考虑充电航程的整体覆盖策略中复杂长期决策的问题,本研究提出了一种解决无人机有限电池的电量限制覆盖路径规划(CPP)问题的新方法,提供了处理由充电能力引起的紧急状态循环的位置历史,超越了基线启发式算法,并对长期问题的 DRL 算法设计提供了有价值的见解,并为 CPP 问题提供了一个可公开使用的软件框架。
Sep, 2023
通过使用深度强化学习 (DRL) 的机器人导航,可以提高移动机器人的性能。然而,现有的基于 DRL 的导航方法主要集中于训练一个直接命令机器人进行低级控制的策略,导致机器人在长期执行过程中速度不稳定、轨迹不平滑。我们提出了一种名为 PathRL 的新型 DRL 方法,通过训练策略来生成机器人的导航路径,具有更高的成功率和减少了角度旋转变异性的优势,实现了稳定和流畅的机器人移动。
Oct, 2023
研究了强化学习 (RL) 在动态 RoboCup 小型联赛 (SSL) 中解决机器人运动规划挑战的潜力。通过启发式控制方法,评估了 RL 在无障碍和单障碍路径规划环境中的有效性。消融研究揭示了显著的性能改进。相比基准算法,我们的方法在无障碍环境中获得了 60% 的时间节省。此外,我们的研究结果表明了动态障碍物的避让能力,在移动方块周围熟练导航。这些发现突显了 RL 在具有挑战性和不可预测的 SSL 环境中增强机器人运动规划的潜力。
Apr, 2024