基于演化课程训练的 DRL 导航系统训练
本文提出了一个针对深度强化学习代理的新的训练循环,采用进化生成器进行进化过程生成来构建训练课程,结果表明相较于没有导向的输入,进化课程的训练优化和泛化能力均有所提高。
Jan, 2019
自主移动机器人在人类空间中导航必须遵守社会规范。本研究提出了一种使用课程学习来改善强化学习社交导航方法的泛化性能的方法。通过使用多种环境类型和多种动力学模型对行人进行建模,逐步增加训练的多样性和难度。研究结果表明,与之前的训练方法相比,使用课程学习进行训练可以取得更好的泛化性能。此外,我们还验证了训练方法在比训练中使用的更大更拥挤的测试环境中的有效性,从而对模型的性能进行更有意义的衡量。
Aug, 2023
通过把环境设计作为学生和教师之间的游戏,并使用基于遗憾的目标在学生代理的能力边界上生成环境实例(或水平),我们提出了一种新的方法 ACCEL,以在一个有原则的遗憾主导的课程中利用演化的能力,从而产生逐渐越来越复杂的课程。
Mar, 2022
在包含障碍物的环境中,我们提出一种使用端到端深度强化学习(DRL)控制无人机群的方法,该方法通过提供课程和剪辑碰撞情景的重放缓冲区来改善性能,并且实现了对邻居机器人和障碍物交互的注意机制。这是首次成功地将该机制应用于在计算资源受限的硬件上部署的群体行为策略,我们的方法可以在模拟环境中实现 32 架机器人并达到 80%的障碍物密度,在实际物理环境中可以实现 8 架机器人并达到 20%的障碍物密度,并且可以零 - shot 地转移到真实的无人机上。
Sep, 2023
本文提出了一种无地图的移动机器人规避导航的预训练深度强化学习方法,通过将原始传感器数据映射到控制变量并在未知环境中导航。我们提出了高效的离线训练策略,用于加速早期低效的随机探索,并收集了一个包含专家经验的通用数据集,对其他导航训练工作具有一定的意义。全面验证了预训练和优先专家经验可以减少 80%的训练时间,并且已经证实可以提高 DRL 的 2 倍奖励。通过先进的仿真 gazebo 与真实物理建模和动力学方程的结合,减小了仿真与实际之间的差距。我们在走廊环境中训练了我们的模型,并在不同环境中评估了模型,获得了相同的效果。与传统导航方法相比,我们可以确认训练好的模型可以直接应用于不同场景,并具有无碰撞导航的能力。实验证明我们的 DRL 模型具有在不同环境下的通用性能。
Aug, 2023
通过使用深度强化学习 (DRL) 的机器人导航,可以提高移动机器人的性能。然而,现有的基于 DRL 的导航方法主要集中于训练一个直接命令机器人进行低级控制的策略,导致机器人在长期执行过程中速度不稳定、轨迹不平滑。我们提出了一种名为 PathRL 的新型 DRL 方法,通过训练策略来生成机器人的导航路径,具有更高的成功率和减少了角度旋转变异性的优势,实现了稳定和流畅的机器人移动。
Oct, 2023
自主驾驶汽车使用深度强化学习技术在不确定环境中进行决策,通过使用 CARLA 模拟器在真实城市环境中训练和测试自动驾驶模型,实现了准确的对象识别和距离估计以及有效的交通导航。
Oct, 2023
本文介绍了如何使用强化学习方法和深度 Q 网络等算法,使得机器人可以在未知环境中进行自主导航的任务。我们还利用模拟环境对机器人代理的行为和性能进行了验证和分析。
Feb, 2023
本文介绍了一种基于人工进化算法和深度强化学习相结合的进化增强学习算法,该算法克服了传统深度强化学习算法中时序资格分配、探索效率和收敛性极度敏感的问题,使用基于种群的进化算法来训练深度强化学习代理人,实验结果表明,该方法在多种连续控制基准测试中显著优于传统深度强化学习和进化算法方法。
May, 2018