I-CTRL:基于约束强化学习的仿真控制人形机器人
本文提出了一种基于变分自编码器的策略嵌入方法,相比传统的监督学习方法和生成对抗网络的模仿学习,该方法可以从更少的示范数据中学习到更为鲁棒的控制器,并避免了模式坍塌现象。
Jul, 2017
该论文提出了使用residual force control(RFC)方法增强人型控制策略来更好地模仿长期人类动作,实现了学习源自大规模人体动作数据集的多模态无限地人类动作生成。
Jun, 2020
为了推进仿真学习(IL)在运动中的研究,我们提出了一个新的基准,旨在促进IL算法的严格评估和比较,包括四足动物、两足动物和肌肉骨骼人类模型等多个环境,提供全面的数据集以进行困难程度的评估, 并为每个任务提供手工指标和最新算法。
Nov, 2023
使用深度强化学习(RL)创建动态双足机器人的运动控制器的综合研究,包括开发可用于周期性行走、跑步、跳跃和站立等一系列动态双足技能的通用控制解决方案,该RL控制器采用新颖的双重历史架构,通过长期和短期的输入/输出(I/O)历史数据有效训练,并在模拟和实际世界的各种技能中始终表现优秀。
Jan, 2024
我们提出了一种能够在真实世界中让机器人产生丰富、多样和表现力强的动作的方法,通过在一个人型机器人上学习一个整体控制策略,尽可能地模仿人类的真实动作。通过在强化学习框架中利用图形社区的大规模人体动作捕捉数据来训练这种策略,但是直接使用动作捕捉数据集进行模仿学习可能无法适用于真实的人形机器人,因为在自由度和物理能力方面存在巨大差距。我们的方法(Exbody)通过鼓励上半身模仿参考动作,而放松对其两条腿的模仿约束,只要求它们能够稳定地跟随给定速度来解决这个问题。通过在模拟和实际场景中进行训练和仿真转移,我们的策略可以控制一个人形机器人以不同的风格行走,与人类握手,甚至与人类共舞。我们进行了广泛的研究和比较,展示了我们方法的有效性。
Feb, 2024
本研究针对模仿学习算法在工业高精度环境中的应用,探讨了其超参数敏感性、培训简易性、数据效率和性能等方面的缺乏研究。通过对多接触复杂双手操作任务的评估,揭示了不同算法在应对环境和超参数扰动、训练需求、性能及易用性方面的差异,为选择合适的模仿学习算法提供了实证依据。
Aug, 2024
该研究解决了传统平滑技术在机器人平台上需要繁琐手动调优的问题。提出了一种简单有效的方法,采用Lipschitz约束于学习政策,形成“Lipschitz约束政策”(LCP),能够在训练框架中有效地保证平滑行为。实验表明,LCP能够替代平滑奖励和低通滤波器,实现平稳而稳健的人形机器人运动控制。
Oct, 2024
本研究解决了平滑假肢机器人运动控制中存在的手动调节超参数繁琐的问题。作者提出了一种新颖的方法,通过引入Lipschitz约束来定义政策,从而不再依赖传统的平滑技术,实现了有效的自动化训练。研究结果表明,该方法能够为多种类人机器人生成平稳且强健的运动控制器,具有广泛的应用前景。
Oct, 2024