从数据拟合到探索:通过强化学习解读运动控制的神经动力学
利用计算神经科学分析机器人运动控制的人口群体行为,研究表明在强迫状态和拓扑结构之下,循环状态动力学的结构化和低维的特点与类人研究吻合,振荡系统在可控的神经扰动下,更强地依赖感官输入。
Jun, 2023
本文介绍了一种基于虚拟老鼠的平台,用于研究人工模型的运动活动,研究表明该模型使用两类表示方法分别编码特定于任务的行为策略和任务不变的行为运动学,以及描述了使用神经习性学方法研究不同层次的神经网络在行为观察和目标下的算法,并指出虚拟老鼠便于深度强化学习和运动神经科学之间的合作。
Nov, 2019
通过仿效哺乳动物中央运动系统机制,我们提出了一种神经启发的分层强化学习算法,使得机器人能够学习丰富的运动技能并将其应用于复杂的任务环境中,而不依赖外部数据。
Nov, 2023
动物和机器人存在于物理世界中,并必须协调其身体以实现行为目标。最近在深度强化学习方面的发展使得科学家和工程师可以利用物理模拟的身体和环境来获得特定任务的感觉运动策略(策略)。然而,这些方法的效用超出了特定任务的限制;它们为理解动物感觉运动系统与其形态和与环境的物理相互作用的组织提供了一个令人兴奋的框架,同时也可为机器人系统中感知和执行的一般设计规则的推导提供支持。通过使用深度强化学习中的 extit {演员 - 评论家} 方法,我们在这里提出数学和算法方面的简洁阐述作为研究动物和机器人行为背后的反馈控制的工具。
May, 2024
通过提出一种新颖的深度强化学习框架,我们展示了可用于训练复杂机器人系统的神经网络控制器,该框架通过引入约束条件减少了奖励工程的工作量,并实现了较高的任务绩效。
Aug, 2023
这篇论文研究了如何用增强学习算法训练四肢机器人在复杂环境中实现高速奔跑、跳跃、走路到目的地等多种复杂技能,并且通过从已有的控制器中借鉴经验,解决了机器人探索新环境时的困难,实现了四肢机器人在现实环境中优雅且安全的部署。
Apr, 2023
通过使用动物和人类的知识来激发机器人创新,我们提出了一个框架,使四肢机器人能够在复杂环境中具备像真实动物一样的灵活性和策略。通过利用先进的深度生成模型产生模拟动物行为的运动控制信号,我们的方法通过预训练感知动物运动的生成模型,将原始知识保留并重复利用于环境适应性学习阶段,最终在复杂的下游任务中通过任务特定控制器解决任务,从而推动了机器人控制的前沿。
Aug, 2023
基于模型基础的逆运动学求解器和强化学习,本文提出一种适用于双足机器人的多功能控制器,通过单一小型神经网络实现了踝关节和身体轨迹跟踪,能够在广泛的步态范围内完成这一任务。通过最小控制单元结合高级策略,可以实现高度灵活的步态控制,训练后的机器人能够自由地在不同距离和高度的目标支撑点之间移动,并且能够在维持静态平衡时调整姿势。实验结果证明了我们控制框架的有效性。
Apr, 2024
该研究论文表明,中等大小的神经网络模型实际上可以与模型预测控制(MPC)相结合,以实现在模型为基础的强化学习算法中的良好样本复杂度,并以提高深度神经网络动力学模型的样本效率为目的初始化模型自由学习。
Aug, 2017