学习时序优化路径跟踪,带或不带感觉反馈
通过模型无关的机器学习框架和储水计算方法,实现对双臂机器人操纵器的跟踪控制,仅使用部分观测状态,并且该控制框架在周期性和混沌信号方面表现出有效性和对测量噪声、干扰和不确定性的鲁棒性。
Sep, 2023
该文章提出了一种利用路径抽象、端到端优化神经网络实现在动作不确定性和环境变化下追踪路径的方法,并在仿真器中进行了实验验证,结果表明其表现优于传统方法和其他基于学习的基准线。
Dec, 2018
本文提出了一种基于强化学习的路径生成(RL-PG)方法,以用于移动机器人导航,无需事先探索未知环境。该方法采用深度马尔可夫模型优化的 RL 算法生成多个预测路径点,通过运动微调模块 fine-tuning 机器人的运动以确保跟踪预测点时的安全。通过在模拟和物理平台上的部署,证明本文提出的方法有效并且其成功率更高于 DWA-RL 和传统的 APF 导航方法。
Oct, 2022
使用无模型强化学习在仿真环境下训练的,基于镜像世界神经网络的四足机器人运动控制器具有极强的抗扰动性能和泛化能力,能够协调机器人的动作频率和运动速度,实现更加自然和合理的运动模式。
Jul, 2022
移动机器人系统中,提出了一种分散拓展的扩展卡尔曼滤波器和一种通过专家演示器训练的强化学习路径跟踪控制器的新颖方案,实验结果表明,FEKF 能够改善移动机器人位置的估计,AI 解决方案能够胜过基于模型的控制策略和演示器,同时通过一系列性能指标对比评估与基准控制器。
Jan, 2024
本文提出了一种基于强化学习的适应性路径跟踪控制系统,可用于自动驾驶汽车,并使用 Q-Learning 算法进行较小横向和转向轨迹误差的校准。该系统还基于 ROS 桥连接了 CARLA 模拟环境和跟踪器结果。模拟结果表明,本系统能够安全地适应不同类型的参考轨迹,并具有低误差追踪能力。
Jan, 2023
使用深度强化学习,通过神经网络作为状态 - 动作映射,通过量化分析系统显著性分析来确定机器人学习的关键状态以实现迈步技能学习,其中包括平衡恢复,慢跑,奔跑,步态和奔跑。
Jun, 2023
基于模型基础的逆运动学求解器和强化学习,本文提出一种适用于双足机器人的多功能控制器,通过单一小型神经网络实现了踝关节和身体轨迹跟踪,能够在广泛的步态范围内完成这一任务。通过最小控制单元结合高级策略,可以实现高度灵活的步态控制,训练后的机器人能够自由地在不同距离和高度的目标支撑点之间移动,并且能够在维持静态平衡时调整姿势。实验结果证明了我们控制框架的有效性。
Apr, 2024
我们提出了一种双编码器基于转换器模型的两阶段方法,以加速时间 - 抖动最优轨迹规划。通过顺序二次规划对初步轨迹进行改进,以提高其最优性和鲁棒性。与现有方法相比,我们的方法在减少轨迹规划时间方面超过了最先进方法 79.72%,并且优化目标函数值减少了最多 29.9%。
Mar, 2024
本研究在复杂环境中研究了机器人交互问题,通过扩展路径积分控制的自由能公式中的样本空间,提出了一种嵌入不确定性的路径积分控制方法,为基于模型的机器人规划提供了鲁棒性,实验证明了其能够在不损失性能的情况下实时运行。
Jun, 2020