本文提出了一种利用深度强化学习技术自动化四足机器人运动设计过程的系统,能够从简单的奖励信号中学习四足运动,并可提供开环参考进行学习过程的控制,采用系统辨识来改进物理模拟器,利用物理环境随机与扰动设计控制器,并在物理模拟器中进行评估,成功在现实世界中部署。
Apr, 2018
本研究基于神经网络的方法实现对四足动物的运动控制,采用自主提供的本体感觉信息,具有很强的普适性和鲁棒性,在模拟和自然环境中都有良好的表现,并在本次试验中优于以往的四足动物机器人,对未来的机器人研究具有大量的实践价值。
Oct, 2020
通过在仿真中训练神经网络策略并将其转移到现实的四足动态平衡系统,研究创造了一种快速、自动且高效的数据生成方案,从而实现了在四足机器人技能方面的进一步提升。
Jan, 2019
本文提出 SHAC 算法,该算法基于高性能可微分模拟器,可以有效利用模拟梯度,避免局部最小值问题,并通过截断学习窗口来避免梯度消失或爆炸。在控制任务中表现出更高的样本效率和更短的训练时间。
Apr, 2022
本文提出了一种新的神经网络政策训练技术,可用于在非平坦地形上的足式机器人的运动规划和控制。该方法结合了模型驱动的运动规划和强化学习的最新方法,并应用于一组包含挑战性地形场景的模拟测试中,证明了该方法的有效性。
Sep, 2019
本文研究了 differentiable simulation 在含有刚体和可变形物体的情景下所面临的挑战,提出了一种使用贝叶斯优化和半局部 “跳跃” 的方法来获得全局搜索方法的方案,并在模拟实验和实际机器人实验中验证了该方法的有效性。
Jun, 2022
本文提出了一种可实践的学习框架,能够输出统一的神经网络控制器,具有显著提高任务复杂性和多样性的能力,并使用可微物理学实现训练。实验结果表明,在可微弹簧和材料点方法的模拟、复杂的步态任务和多个机器人设计方案上,我们的学习框架优于强化学习,能够更快地收敛,并且用户可以使用我们系统中训练的统一的神经网络控制器交互式控制软体机器人的运动并在多个目标之间切换。
四足机器人的持续学习方案探讨了在不同环境中顺序训练并评估其性能的能力,以洞察前向和后向技能传递的程度,以及机器人对先前获得技能的遗忘程度,以期提高其在真实场景中的适应性和性能。
Nov, 2023
使用非常少的计算,无需模拟和用户输入的方法,实现了软体机器人的自动生成步态,性能优于手工制作的步态。
Sep, 2023
通过使用动物和人类的知识来激发机器人创新,我们提出了一个框架,使四肢机器人能够在复杂环境中具备像真实动物一样的灵活性和策略。通过利用先进的深度生成模型产生模拟动物行为的运动控制信号,我们的方法通过预训练感知动物运动的生成模型,将原始知识保留并重复利用于环境适应性学习阶段,最终在复杂的下游任务中通过任务特定控制器解决任务,从而推动了机器人控制的前沿。
Aug, 2023