可微高斯过程运动规划
该文章中提出了一种基于概率推理的运动规划的新方法,使用稀疏高斯过程模型来表示连续时间轨迹,并开发了一种高效的优化算法,将运动规划问题转化为因子图上的概率推理,最终得到一种快速且具有鲁棒性的规划算法。
Jul, 2017
提出了一种基于高斯过程(GP)的模型,用于主动检测未来运动规划失败的风险,并在风险超过阈值时触发恢复行为来从事实现目标的安全状态。该方法仅在仿真环境中进行训练,并可以泛化到不同机器人平台的实际环境中。仿真和物理实验证明了该框架既能预测规划器的失败,又能将机器人恢复到可能成功规划的状态,并以敏捷的运动方式进行操作。
Feb, 2024
本文提出了一种基于高斯混合回归的新型多输出高斯过程(MOGP)方法,利用 MOGP 的协方差将从演示中检索的变异性捕获起来,使机器人能够精确跟踪经过点,同时在高变异地区保持的柔顺性。
Oct, 2019
GP-MPPI 是基于在线学习的控制策略,将 MPPI 与基于稀疏高斯过程(SGP)的局部感知模型相结合,通过构建方差表面来引导机器人在未知、杂乱环境中进行自主导航,确保机器人安全到达目标并避开障碍物。
Jul, 2023
学习轨迹分布的先验信息可以帮助加速机器人运动规划优化,本工作提出了学习扩散模型作为先验信息的方法,并通过扩散模型的逆去噪过程在任务目标条件下直接从后验轨迹分布中进行采样,实验证明扩散模型是编码高维机器人运动轨迹分布的强先验。
Aug, 2023
该论文介绍了一种用于引导几何任务和运动计划(GTAMP)的学习框架,它通过引入新颖的 planner 来扩展启发式搜索与随机采样和启发式函数相结合,以解决 GTAMP 问题中的困难,并提出了两种学习算法以提高其效率。该框架在挑战性的 GTAMP 问题中进行了评估,显示它能够提高计划的效率和数据效率。
Mar, 2022
高维空间中有效的运动规划是机器人领域中一个长期存在的难题。传统运动规划算法中的一类是基于势能的运动规划,它具有组合性的优势 —— 可以通过添加相应的势能来轻松地组合不同的运动约束。然而,从势能中构建运动路径需要在配置空间势能景观上解决全局优化问题,往往容易陷入局部最小值。我们提出了一种新的基于学习势能的运动规划方法,通过训练神经网络来捕捉和学习优化易于的势能模型。实验证明了这种方法的有效性,明显优于传统和最近学习的运动规划方法,并避免了局部最小值问题。我们进一步证明了它的组合性,使我们能够推广到多种不同的运动约束。
Jul, 2024
该研究提出了一种新的机器人策略优化方法,将策略更新视为一个最优输运问题,并利用高斯混合模型和 Riemannian 优化方法来优化机器人的运动策略,该方法在多个机器人任务中表现出更高的成功率和较低的方差。
May, 2023
高斯过程学习模型预测控制(GP-MPC)系统地介绍了一种先进的方法,将高斯过程(GP)与模型预测控制(MPC)相结合,以提高复杂系统中的控制效果。它从 GP 回归基础知识开始,说明了它如何提高 MPC 的预测准确性和鲁棒性处理。本教程的一个重点贡献是对 GP-MPC 进行了首次详细、系统的数学形式化,重点关注了推导用于 GP 多步预测的均值和方差传播近似方法。通过讨论在机器人控制中的实际应用,如移动机器人在具有挑战性的地形中的路径跟随和混合车辆编队等,展示了 GP-MPC 的实际有效性和适应性。本教程旨在使 GP-MPC 对研究人员和实践者更加易于理解,为学习控制领域提供深入的理论和实践洞察,并促进复杂系统控制领域的进一步创新。
Apr, 2024