从最优控制中学习敏捷路径
研究了强化学习 (RL) 在动态 RoboCup 小型联赛 (SSL) 中解决机器人运动规划挑战的潜力。通过启发式控制方法,评估了 RL 在无障碍和单障碍路径规划环境中的有效性。消融研究揭示了显著的性能改进。相比基准算法,我们的方法在无障碍环境中获得了 60% 的时间节省。此外,我们的研究结果表明了动态障碍物的避让能力,在移动方块周围熟练导航。这些发现突显了 RL 在具有挑战性和不可预测的 SSL 环境中增强机器人运动规划的潜力。
Apr, 2024
本文研究如何为一个敏捷移动机器人设计一个控制系统,重点研究了一项具有挑战性的场景:自主无人机赛车。我们证明了在这个场景中,通过强化学习(RL)训练的神经网络控制器优于最优控制(OC)方法。我们的研究表明,RL 胜过 OC 的基本优势不是在于更好地优化了其目标,而是优化了一个更好的目标。RL 可以直接优化任务级目标,并能够利用领域随机化来应对模型不确定性,从而发现更稳健的控制响应。本研究对于推动敏捷机器人的最大性能具有重要意义,并阐明了 RL 和 OC 在机器人控制中的作用。
Oct, 2023
本文探讨了一种使用机器学习找到最优配置并将搜索空间限制在这些配置中的方法,以应对系统运行期间不一致性的挑战,并在机器人任务中进行了实验。
Mar, 2019
本论文提出一种基于无标注训练数据的方法,结合深度动作条件视频预测模型和模型预测控制,使真实机器人能够进行非抓取操作,比如推动物体,并且可以处理训练过程中没有出现过的新物体。
Oct, 2016
在机器人学中,我们提出了一种集成无障碍深度强化学习轨迹规划器和新颖的自适应低级和关节级控制策略的方法,通过与环境的交互来激活学习阶段,解决了学习基于模型的复杂性和稳定性和安全性之间的挑战。
Feb, 2024
本文提出了一种结合基于模型的最优控制与强化学习的动态、鲁棒的腿式 locomotion 的多功能控制方法;该方法成功地学习了控制策略,能够在模拟和硬件实验中生成不同的四足步态模式并保持稳定,并演示了该方法对于不太平的地形的适应性,无需过多的奖励设计或超参数调整。
May, 2023
通过将模型驱动控制与基于学习的感知相结合,本研究提出了一种适用于未知场景下机器人导航的方法,实验结果表明,相比于几何映射和终端学习方法,该方法在处理复杂环境下的目标到达更加可靠和高效。本方法不依赖于对环境的详细、明确的 3D 地图,适用于低帧率,且具有良好的仿真到真实世界的泛化性能。
Mar, 2019
通过层次学习和规划框架,利用试错和模型生成轨迹的方法,本研究通过在线无模型强化学习和预训练微调奖励机制来赋予飞行器在未知和部分可观察环境中适应敏捷性的能力,并在仿真和实际硬件验证中证明了该方法比常数敏捷度基准和替代方法在飞行效率和安全性方面的优势。
Mar, 2024
本研究通过比较监督式学习与强化学习算法,提出了一个适用于动作规划领域的 DDPG-MP 算法,该算法有助于解决运动规划中数据不足的问题,并在新领域的规划中实现了较快速度。
Jun, 2019