神经动态运动基模 —— 综述
本文提出了一种基于动态动作原理的运动控制方法 CDMP,通过非线性优化来实现约束条件(如障碍物避让、工作空间限制)的满足,并在不同机器人以及环境下验证了该方法的有效性。
Sep, 2022
本文提出了一个深度运动原语体系结构,将所有以前的操作编码,并使用贝叶斯上下文聚合器,同时保持了线性运动基元的操作,表明该方法在较大的输入选择变化时能更好地扩展以复制复杂动作。
Jul, 2023
本文介绍了如何将动态运动原始 (Dynamic Movement Primitives) 重构为具有控制输入的概率线性动态系统。通过这种概率表示,本文显示了卡尔曼滤波和平滑等算法在执行期间对前感觉传感器测量进行推理的可直接应用。我们进一步展示了推理如何通过反馈项自动调节 DMP 的执行,并测量成功执行给定运动基元的可能性。在这种情况下,我们展示了使用概率模型在模拟运动基元数据集中检测执行失败的初步结果。
Dec, 2016
提出了一种系统的方法来从人类演示中提取动态特征,以自动调整 DMP 框架中的参数,此方法可与 LfD 和 RL 一同使用,可使机器人更有效地探索可能的轨迹,从而显着提高机器人的遵从性,并在实际的人机交互实验中得以验证。
Apr, 2023
提出了一个新方法,通过结合 Koopman 操作符和动态运动原理与示教学习,将非线性动力系统投影到线性潜在空间中,从而实现复杂动作的解决方案。
Dec, 2023
机器人辅助手术中的政策学习存在数据效率低和多功能性方法不足的问题,本研究引入了运动原始扩散(MPD),一种新的机器人辅助手术中的模仿学习方法,专注于可变形物体的轻柔操控,通过将扩散型模仿学习(DIL)的多功能性与概率动态运动原始(ProDMPs)的高质量运动生成能力相结合,实现了 MPD 对可变形物体的轻柔操控,同时保持了对稀缺演示数据至关重要的数据效率,通过在多个模拟任务和真实世界的机器人设置上评估 MPD 在状态和图像观测方面表现出优于现有 DIL 方法的成功率、运动质量和数据效率。
Dec, 2023
该论文提出了一种新的策略表示 —— 神经动力学策略,通过将动力学系统嵌入到神经网络策略中,通过二阶微分方程来重新参数化动作空间以实现端到端的政策学习,并在几个机器人控制任务中展示了神经动态策略比传统的基于先验的策略学习方法更高的效率和性能表现。
Dec, 2020
本文提出了一种在基于模型和无梯度强化学习的神经网络中对运动原语进行高效编码的方法,并区分了 5 个核心方面:系统模型、网络架构、训练算法、训练任务选择和硬件 / 软件实现,通过实验展示了这种方法的效果。
Jul, 2018
提出了一种基于强化学习的机器人运动规划框架,使用隐式行为克隆和动态运动原语来提高离线强化学习代理的训练速度和泛化能力,同时提供了人类示范数据集,实验结果表明了该方法在模拟环境下的优势以及实际装配任务的适用性。
Jul, 2023