通过比较分析基于深度 Q 网络(DQN)算法和基于双重深度 Q 网络(DDQN)算法的深度强化学习(Deep-RL)策略,本研究提出了两种不同的方法,旨在增强地面移动机器人的无地图导航能力。这些方法中的智能体利用来自激光范围采样的 24 个测量,以及与目标的位置差异和方向相关的智能体位置数据,通过融合这些数据来影响导航决策,从而最终控制机器人的速度。实验结果表明,相比于简单的 Q 结构,双重深度结构显著提高了移动机器人的导航能力,且无需依赖于复杂的感知输入,如基于图像的方法。
Oct, 2023
本文研究了如何使用深度强化学习和双重深度 Q 神经网络算法来优化无地图导航中移动机器人的导航和避障任务,并证明使用双重深度 Q 结构比简单 Q 结构更有效。
Jan, 2023
本文介绍了如何使用强化学习方法和深度 Q 网络等算法,使得机器人可以在未知环境中进行自主导航的任务。我们还利用模拟环境对机器人代理的行为和性能进行了验证和分析。
Feb, 2023
本文提出了一种基于神经网络的运动规划方法,使用学习演示来训练机器人在动态障碍物环境下进行端到端导航,此方法可通过原始 2D 激光测距数据将目标位置映射到机器人的导航命令。模型已通过模拟和实际测试的方式进行了有效验证与比较。
Sep, 2016
评估了具有深度 Q-Learning 和 Deep DQN 结构的机器学习算法,以解决自主移动机器人避开障碍物的路径规划问题。
本文提出了一种基于强化学习的路径生成(RL-PG)方法,以用于移动机器人导航,无需事先探索未知环境。该方法采用深度马尔可夫模型优化的 RL 算法生成多个预测路径点,通过运动微调模块 fine-tuning 机器人的运动以确保跟踪预测点时的安全。通过在模拟和物理平台上的部署,证明本文提出的方法有效并且其成功率更高于 DWA-RL 和传统的 APF 导航方法。
Oct, 2022
本文提出了一种无地图的移动机器人规避导航的预训练深度强化学习方法,通过将原始传感器数据映射到控制变量并在未知环境中导航。我们提出了高效的离线训练策略,用于加速早期低效的随机探索,并收集了一个包含专家经验的通用数据集,对其他导航训练工作具有一定的意义。全面验证了预训练和优先专家经验可以减少 80%的训练时间,并且已经证实可以提高 DRL 的 2 倍奖励。通过先进的仿真 gazebo 与真实物理建模和动力学方程的结合,减小了仿真与实际之间的差距。我们在走廊环境中训练了我们的模型,并在不同环境中评估了模型,获得了相同的效果。与传统导航方法相比,我们可以确认训练好的模型可以直接应用于不同场景,并具有无碰撞导航的能力。实验证明我们的 DRL 模型具有在不同环境下的通用性能。
Aug, 2023
本文提出了一种基于深度强化学习的机器人操作器运动规划器,用于解决工业机器人在未知环境下的路径规划问题,实验结果证明其在路径长度和执行时间方面的优越性。
通过基于单次环境遍历构建交互世界模型、预训练视觉特征编码器和随机环境增强的方法,提出了一种在移动机器人上学习导航到固定目标并在已知环境中进行零样本迁移的方法。该方法成功应用于真实环境变化下的导航问题,避免了过拟合问题。
Nov, 2017
在机器人学中,我们提出了一种集成无障碍深度强化学习轨迹规划器和新颖的自适应低级和关节级控制策略的方法,通过与环境的交互来激活学习阶段,解决了学习基于模型的复杂性和稳定性和安全性之间的挑战。
Feb, 2024