使用PID控制器和深度强化学习的自平衡机器人
本文介绍了如何运用强化学习技术控制非线性偏微分方程模型的工程实体,以及设计了一种新颖算法,用于管理大型多智能体系统,并通过神经网络建模解决未知、随机、时变参数的偏微分方程控制问题,提出了一种相互加权规则(MWR)算法,用于解决多智能体控制方案的高维度问题。
Jan, 2017
本文介绍了一种使用强化学习和Python打造的开源工具包gym-electric-motor(GEM)用于电动机控制,同时提供了智能控制器示例,并与级联PI控制器进行了比较。
Oct, 2019
使用经典控制理论中的Lyapunov方法,为控制系统提供稳定性保证的actor-critic RL框架,确保在一定程度的不确定性干扰下,学习到的策略使得系统能够恢复到平衡或航点。
Apr, 2020
本文中,我们提出了Phy-DRL框架:一种物理模型调节的深度强化学习框架,用于安全关键的自主系统。Phy-DRL在三个方面独具创新:积极的未知-未知训练,连接残余控制,以及基于物理模型的神经网络编辑。在倒立摆和四足机器人上进行的实验结果证明了与纯数据驱动DRL相比,Phy-DRL具有更少的学习参数,卓越的模型鲁棒性和安全保证。
May, 2023
本文探讨了使用基于强化学习的神经网络自整定的PID控制算法,应用于四旋翼飞行器的姿态和高度控制,在动态和静态增益的调整中使用了适应性动量(ADAM)优化器和反向传播(BP)算法,并证明该方法比具有恒定增益的PID控制器具有更好的性能。
Jul, 2023
在本论文中,我们首次实现了基于深度强化学习的韧性端到端控制器在Solo12四足机器人上的应用,通过学习关节阻抗参考值来实现。我们详细介绍了学习过程和在真实机器人上的迁移方法。在实验中,我们展示了Solo12机器人作为一个开放源码平台在学习与控制相结合的研究中的适用性,因为学习到的控制器易于迁移和部署。
Aug, 2023
该研究评估了一种离散动作空间强化学习方法(Q-learning)在机器人倒立摆平衡的连续控制问题中的应用。为了加快学习过程并克服直接在真实机器人系统上进行学习的技术困难,学习阶段在模拟环境中进行。通过对从真实系统获取的数据进行曲线拟合来推导系统动力学的数学模型。该研究验证了该方法的可行性,应用于一个真实世界的机器人学习平衡倒立摆。该研究还强调并证明了在模拟中准确表示物理世界对于实现强化学习算法在真实环境中更有效的重要性,即使使用离散动作空间算法来控制连续动作。
Dec, 2023
我们提出了一个基于强化学习算法的解决方案,用于在IJCAI 2023的人工智能奥林匹克竞赛中完成摇摆和平衡任务,基于Soft Actor Crtic (SAC)算法训练摇摆和进入线性二次调节器(LQR)控制器吸引区域的策略来稳定双摆杆处于顶部位置,我们的控制器在性能和鲁棒性方面实现了竞争分数,适用于pendubot和acrobot问题场景。
Dec, 2023
基于模型基础的逆运动学求解器和强化学习,本文提出一种适用于双足机器人的多功能控制器,通过单一小型神经网络实现了踝关节和身体轨迹跟踪,能够在广泛的步态范围内完成这一任务。通过最小控制单元结合高级策略,可以实现高度灵活的步态控制,训练后的机器人能够自由地在不同距离和高度的目标支撑点之间移动,并且能够在维持静态平衡时调整姿势。实验结果证明了我们控制框架的有效性。
Apr, 2024
本研究解决了机器人在复杂顺序任务中的学习难题,特别是在长时间操作任务中缺乏可靠性保证的问题。通过将长时间演示分段并学习全局稳定的动态系统策略,该方法提升了任务成功率,减少了所需训练数据。实验结果表明,该方法在仿真与实际应用中均表现出良好的转移能力,显示了重大的潜在应用价值。
Oct, 2024