我们引入了一种名为 Riemannian Flow Matching Policies(RFMP)的新型模型,用于学习和合成机器人视觉运动策略。RFMP 利用了流匹配方法的高效训练和推理能力,具备编码机器人任务中常见的高维多模态分布和简单快速推理过程的优点。我们展示了 RFMP 在基于状态和基于视觉条件的机器人运动策略中的适用性。值得注意的是,由于机器人状态存在于 Riemann 流形上,RFMP 固有地融合了几何意识,这对于真实机器人任务至关重要。为了评估 RFMP,我们进行了两个概念验证实验,并将其性能与 Diffusion Policies 进行了比较。尽管两种方法都成功地学习了考虑的任务,但结果表明,RFMP 提供了更平滑的动作轨迹并具有显着较低的推理时间。
Mar, 2024
提出了一种基于等距运动流形原语(IMMP)的方法,通过保持流形的几何结构来解决在潜在空间中几何扭曲问题,并通过实验表明 IMMP 在平面避障运动和推动操作任务中明显优于现有的 MMP 方法。
Oct, 2023
本文介绍了一种名为 MP3 的深度强化学习方法,它通过将运动原语(MPs)整合到深度 RL 框架中,实现了在整个学习过程中生成平滑轨迹的能力,同时有效地从稀疏且非马尔可夫奖励中学习,还具有在执行过程中适应环境变化的能力,该方法相较于现有的深度 RL 和 RL 结合 MPs 等方法,在复杂、稀疏奖励环境和需要重规划的领域中表现出更好的性能。
Jun, 2023
该研究提出了一种名为 M$\pi$Nets 的端到端神经模型,用于从单个深度摄像头观察中生成碰撞自由、平稳的运动,经过在超过 500,000 个环境中进行的超过 3 百万次运动规划实验的训练,证明 M$\pi$Nets 比以前的神经规划器快 46%,比本地控制策略更具鲁棒性,并具有应对动态场景所需的反应性。
Oct, 2022
本文从 Riemann 流形的角度研究了机器人运动学习范式,并探讨了通过人类示范学习获得 Riemann 流形以及通过利用考虑障碍物的周围度量重新塑造学习的流形来促进末端点 / 多肢体避障的技术。通过 7 自由度机器人操作机械臂展示了学习和生成基于复杂运动模式的运动技能的能力,并评估了多种障碍物避开策略和在多种模式下生成轨迹。
Mar, 2022
本文介绍了如何将动态运动原始 (Dynamic Movement Primitives) 重构为具有控制输入的概率线性动态系统。通过这种概率表示,本文显示了卡尔曼滤波和平滑等算法在执行期间对前感觉传感器测量进行推理的可直接应用。我们进一步展示了推理如何通过反馈项自动调节 DMP 的执行,并测量成功执行给定运动基元的可能性。在这种情况下,我们展示了使用概率模型在模拟运动基元数据集中检测执行失败的初步结果。
Dec, 2016
机器人辅助手术中的政策学习存在数据效率低和多功能性方法不足的问题,本研究引入了运动原始扩散(MPD),一种新的机器人辅助手术中的模仿学习方法,专注于可变形物体的轻柔操控,通过将扩散型模仿学习(DIL)的多功能性与概率动态运动原始(ProDMPs)的高质量运动生成能力相结合,实现了 MPD 对可变形物体的轻柔操控,同时保持了对稀缺演示数据至关重要的数据效率,通过在多个模拟任务和真实世界的机器人设置上评估 MPD 在状态和图像观测方面表现出优于现有 DIL 方法的成功率、运动质量和数据效率。
Dec, 2023
提出了一种基于强化学习的机器人运动规划框架,使用隐式行为克隆和动态运动原语来提高离线强化学习代理的训练速度和泛化能力,同时提供了人类示范数据集,实验结果表明了该方法在模拟环境下的优势以及实际装配任务的适用性。
Jul, 2023
通过学习方式自适应高斯过程运动规划算法参数的有效性研究
Jul, 2019
本研究提出了一种基于隐式神经层和最优输运理论的流模型 IRCPMs,用于在具有已知对称组的 Riemannian 流形上建模密度,并展示了在扭曲的流形上的密度估计实验。
Oct, 2021