使用 Roomba 模拟覆盖路径规划
该研究提出了基于强化学习的、连续状态和动作空间下的在线覆盖路径规划方法,用于处理未知环境的大型区域,并且结合了全局地图和局部感知输入,以及多尺度地图输入表示的观测空间构建,通过提出的全变差奖励,实现了学习路径上无漏洞被覆盖的目标。
Jun, 2023
本文章提出了一种基于 ROS 框架的混沌路径规划应用程序,该程序通过提供避障技术、混沌轨迹分散和准确覆盖计算等技术,解决了对于限制目标的自主搜索与遍历任务的三大关键问题,其性能可与传统最优路径规划器相媲美,并在多种大小、形状和障碍物密度的真实环境与 Gazebo 模拟中进行了测试。
May, 2023
通过利用基于地图的观测、动作掩码和折扣因子调度的近端策略优化(PPO)深度强化学习(DRL)方法,尤其考虑充电航程的整体覆盖策略中复杂长期决策的问题,本研究提出了一种解决无人机有限电池的电量限制覆盖路径规划(CPP)问题的新方法,提供了处理由充电能力引起的紧急状态循环的位置历史,超越了基线启发式算法,并对长期问题的 DRL 算法设计提供了有价值的见解,并为 CPP 问题提供了一个可公开使用的软件框架。
Sep, 2023
通过在仿真环境中训练模型,并在高推理频率下部署,我们成功地将最先进的结果从仿真转移到了真实领域,而直接学习则需要花费几个星期的人工交互,即完全不可行。
Jun, 2024
研究了强化学习 (RL) 在动态 RoboCup 小型联赛 (SSL) 中解决机器人运动规划挑战的潜力。通过启发式控制方法,评估了 RL 在无障碍和单障碍路径规划环境中的有效性。消融研究揭示了显著的性能改进。相比基准算法,我们的方法在无障碍环境中获得了 60% 的时间节省。此外,我们的研究结果表明了动态障碍物的避让能力,在移动方块周围熟练导航。这些发现突显了 RL 在具有挑战性和不可预测的 SSL 环境中增强机器人运动规划的潜力。
Apr, 2024
本文研究了无人机的路径设计问题,提出了一种新的基于强化学习的算法,通过学习相应的 MDP 的状态 - 价值函数来求解,并使用瓦片编码对大状态空间进行处理。该算法使用原始测量或仿真生成的信号强度作为输入,可适用于在线和离线实现,并成功地避免了城市环境中蜂窝网络的覆盖漏洞。
May, 2019
本文提出了一种新方法,利用端到端强化学习通过地图通道提供空间信息并使用 DDQN 平衡有限电力预算和无人机的航程,以控制在一些禁飞区域有随机起飞位置和多个降落选项的环境中的无人机 CNN 航迹规划任务,此方法可以应用于各种环境且很好地协调了复杂的系统约束与目标结构。
Mar, 2020
本研究提出了一种新的强化学习框架来帮助完全可控的智能体进行路径规划,并通过使用双向记忆编辑方法得到智能体的不同双向轨迹,隔离政策网络并利用专门的子目标网络来将智能体移动至不同方向,最后通过奖励形态化来缩短智能体到达目标的步骤数。实验结果表明,智能体能够到达训练中从未到达过的各种目标,并且能够使用奖励形态化来选择较短的路径。
May, 2022