基于单目视觉的深度强化学习障碍物避免
本文介绍了如何使用强化学习方法和深度 Q 网络等算法,使得机器人可以在未知环境中进行自主导航的任务。我们还利用模拟环境对机器人代理的行为和性能进行了验证和分析。
Feb, 2023
本文介绍了一种基于机器学习的系统,用于仅基于视觉感知控制机器人操作器。首次展示了只从原始像素图像学习机器人控制器的能力,而不需要对配置有任何先前知识。我们建立在最近深度强化学习的成功基础之上,并开发出一种利用外部视觉观察学习三关节机器人操作器目标到达的系统。经过在仿真中的训练后,Deep Q 网络(DQN)被证明能够执行目标到达。将网络转移到真实硬件和真实观察的朴素方法失败了,但实验证明在用合成图像代替相机图像时,网络可以正常工作。
Nov, 2015
本文提出了一种基于 RGB-D 传感器的道路机器人避障系统,使用两阶段语义分割网络生成语义地图以便进行局部路径规划,采用光流监督和运动模糊增强的训练方法,实现室内外道路机器人的无碰撞自主导航。
Aug, 2019
本文研究了如何使用深度强化学习和双重深度 Q 神经网络算法来优化无地图导航中移动机器人的导航和避障任务,并证明使用双重深度 Q 结构比简单 Q 结构更有效。
Jan, 2023
在包含障碍物的环境中,我们提出一种使用端到端深度强化学习(DRL)控制无人机群的方法,该方法通过提供课程和剪辑碰撞情景的重放缓冲区来改善性能,并且实现了对邻居机器人和障碍物交互的注意机制。这是首次成功地将该机制应用于在计算资源受限的硬件上部署的群体行为策略,我们的方法可以在模拟环境中实现 32 架机器人并达到 80%的障碍物密度,在实际物理环境中可以实现 8 架机器人并达到 20%的障碍物密度,并且可以零 - shot 地转移到真实的无人机上。
Sep, 2023
在机器人学中,我们提出了一种集成无障碍深度强化学习轨迹规划器和新颖的自适应低级和关节级控制策略的方法,通过与环境的交互来激活学习阶段,解决了学习基于模型的复杂性和稳定性和安全性之间的挑战。
Feb, 2024
通过比较分析基于深度 Q 网络(DQN)算法和基于双重深度 Q 网络(DDQN)算法的深度强化学习(Deep-RL)策略,本研究提出了两种不同的方法,旨在增强地面移动机器人的无地图导航能力。这些方法中的智能体利用来自激光范围采样的 24 个测量,以及与目标的位置差异和方向相关的智能体位置数据,通过融合这些数据来影响导航决策,从而最终控制机器人的速度。实验结果表明,相比于简单的 Q 结构,双重深度结构显著提高了移动机器人的导航能力,且无需依赖于复杂的感知输入,如基于图像的方法。
Oct, 2023
本文介绍了一种基于外观的障碍物检测系统,使用深度神经网络的方法进行训练,能够在高速行驶、长距离、低维度等复杂情况下对障碍物进行检测。
Jul, 2016
提出采用深度强化学习和传统的 Q-learning 方法来解决仓库机器人导航,避障和产品摆放等问题,包括针对单机器人,多机器人的情况,成功在二维仿真环境中测试了模型的性能。
Feb, 2022