使用深度强化学习的机器人路径规划
提出采用深度强化学习和传统的 Q-learning 方法来解决仓库机器人导航,避障和产品摆放等问题,包括针对单机器人,多机器人的情况,成功在二维仿真环境中测试了模型的性能。
Feb, 2022
通过比较分析基于深度 Q 网络(DQN)算法和基于双重深度 Q 网络(DDQN)算法的深度强化学习(Deep-RL)策略,本研究提出了两种不同的方法,旨在增强地面移动机器人的无地图导航能力。这些方法中的智能体利用来自激光范围采样的 24 个测量,以及与目标的位置差异和方向相关的智能体位置数据,通过融合这些数据来影响导航决策,从而最终控制机器人的速度。实验结果表明,相比于简单的 Q 结构,双重深度结构显著提高了移动机器人的导航能力,且无需依赖于复杂的感知输入,如基于图像的方法。
Oct, 2023
本文研究了如何使用深度强化学习和双重深度 Q 神经网络算法来优化无地图导航中移动机器人的导航和避障任务,并证明使用双重深度 Q 结构比简单 Q 结构更有效。
Jan, 2023
自主驾驶汽车使用深度强化学习技术在不确定环境中进行决策,通过使用 CARLA 模拟器在真实城市环境中训练和测试自动驾驶模型,实现了准确的对象识别和距离估计以及有效的交通导航。
Oct, 2023
本论文介绍了深度强化学习在自主导航中的应用,指出安全性和泛化性等方面的限制,并探讨了四种学习技术及其在新型开源导航基准和实际环境中的应用,以此进行了全面研究。
Oct, 2022
本文提出了一种使用深度强化学习方法,利用 RGB-D 传感器在室内环境中探索移动机器人的方法,通过对特征表示的感受野进行分析,深度强化学习促进了卷积网络估计场景的遍历性,实验结果表明,采用该方法训练的机器人控制器在真实环境中的认知能力显著提高。
Oct, 2016
本文提出了一种基于强化学习的路径生成(RL-PG)方法,以用于移动机器人导航,无需事先探索未知环境。该方法采用深度马尔可夫模型优化的 RL 算法生成多个预测路径点,通过运动微调模块 fine-tuning 机器人的运动以确保跟踪预测点时的安全。通过在模拟和物理平台上的部署,证明本文提出的方法有效并且其成功率更高于 DWA-RL 和传统的 APF 导航方法。
Oct, 2022
本研究通过比较分析单目标和多目标强化学习方法,针对训练机器人在有效避开障碍物的同时有效地导航到目标的问题进行探究。传统的强化学习技术,包括深度 Q 网络(DQN),深度确定性策略梯度(DDPG)和双延迟 DDPG(TD3),在 Gazebo 仿真框架中以随机目标和机器人初始位置等参数在不同环境中进行了评估。然而,在存在多个潜在冲突目标的复杂环境中,这些方法的局限性显现。为了解决这些局限性,我们提出了一种采用多目标强化学习(MORL)的方法。通过修改奖励函数返回一系列与不同目标相关的奖励向量,机器人学习了一种能够平衡不同目标的策略,旨在实现帕累托最优解。这项比较研究凸显了 MORL 在复杂、动态的机器人导航任务中的潜力,为进一步研究可适应性和实用性更强的机器人行为奠定了基础。
Dec, 2023
本文介绍了一种基于深度强化学习和 LSTM 的算法,可以在不使用特定行为规则的情况下,学习各种类型的动态代理之间的避碰。通过仿真和在全自主机器人车辆上的实验,证明了该算法随着代理数量的增加能够更好地执行避碰,并且不需要使用 3D 激光雷达。
May, 2018