复杂机器人系统的分散式动作技能学习
本文提出了一种基于多任务强化学习算法的重置自由学习方法,可用于实现机器人的复杂困难操作,无需人工干预,实验表明该方法可以有效缩放复杂的问题并实现机器人的技能多样化。
Apr, 2021
本研究探索了一种基于扭矩的强化学习框架,此模型成功验证了对于模型控制四足动物而言,相较于基于位置的强化学习方法,基于扭矩的强化学习方法能够产生更好的奖励和更强的抗干扰能力,并能够使四足动物在各种地形上移动,是关于四足机器人端到端学习扭矩控制的首次模拟到实际应用的尝试。
Mar, 2022
通过学习过渡模型,我们可以使用它来驱动摊销政策的学习。因此,我们重访了政策优化并描述了一个模块化神经网络架构,该架构从预测错误中同时学习了系统动力学和生成适当连续控制命令的随机策略,并通过与线性二次调节器的基线进行比较来评估模型。
Sep, 2022
本文探讨了分散式和分层式控制对于机器人运动控制的优劣,并提出一种新的架构作为解决方案,实验表明分层式并行控制更能够支持学习、节能、能适应未知环境并解决复杂目标任务。此外,本文还强调了分层结构中模块化设计的重要性。
Sep, 2022
本研究提出了一种基于协同作用的学习(SOLAR)框架,利用机器人控制中度自由度的冗余特性,将执行器分为若干个协同作用组,并学习一种协同作用动作来同步控制多个执行器。通过这种方式,在协同作用水平上实现低秩控制,其可有效地控制机器人的运动。在机器人形态多样化的数据集上取得了良好的控制效果。
Oct, 2022
使用深度强化学习,通过神经网络作为状态-动作映射,通过量化分析系统显著性分析来确定机器人学习的关键状态以实现迈步技能学习,其中包括平衡恢复,慢跑,奔跑,步态和奔跑。
Jun, 2023
通过灵活运用Synergistic Action Representation (SAR)作为一种合适的控制机制,可以有效地学习高维度连续控制任务,提高样本效率,并在广泛的任务领域中实现零样本泛化。
Jul, 2023
通过仿效哺乳动物中央运动系统机制,我们提出了一种神经启发的分层强化学习算法,使得机器人能够学习丰富的运动技能并将其应用于复杂的任务环境中,而不依赖外部数据。
Nov, 2023
使用深度强化学习(RL)创建动态双足机器人的运动控制器的综合研究,包括开发可用于周期性行走、跑步、跳跃和站立等一系列动态双足技能的通用控制解决方案,该RL控制器采用新颖的双重历史架构,通过长期和短期的输入/输出(I/O)历史数据有效训练,并在模拟和实际世界的各种技能中始终表现优秀。
Jan, 2024
动物和机器人存在于物理世界中,并必须协调其身体以实现行为目标。最近在深度强化学习方面的发展使得科学家和工程师可以利用物理模拟的身体和环境来获得特定任务的感觉运动策略(策略)。然而,这些方法的效用超出了特定任务的限制;它们为理解动物感觉运动系统与其形态和与环境的物理相互作用的组织提供了一个令人兴奋的框架,同时也可为机器人系统中感知和执行的一般设计规则的推导提供支持。通过使用深度强化学习中的 extit{演员-评论家}方法,我们在这里提出数学和算法方面的简洁阐述作为研究动物和机器人行为背后的反馈控制的工具。
May, 2024