条件神经专家过程用于从示范中学习
通过半监督的学习方式,本研究在操作机器人通过感知力及学习示范来识别实物属性并生成所需运动的过程中,采用了力传感、从示范学习、无监督数据和触觉表示编码器等关键技术。结果表明,通过预训练,该学习方法在未知海绵上成功地识别了物理属性并生成了期望的擦拭运动,优于其他无预训练方法。此外,通过实际机器人硬件验证了模型生成的运动,并通过在模拟环境中预训练触觉表示编码器,捕捉到了真实物体的属性并提高了实验结果的泛化能力。
Sep, 2023
提出了一种系统的方法来从人类演示中提取动态特征,以自动调整 DMP 框架中的参数,此方法可与 LfD 和 RL 一同使用,可使机器人更有效地探索可能的轨迹,从而显着提高机器人的遵从性,并在实际的人机交互实验中得以验证。
Apr, 2023
本文介绍了一种基于局部神经描述符场(L-NDF)的方法,用于将有限数量的物体操作技能推广到未知形状类别的新物体中。通过利用对象之间共享的局部几何形状,将操作演示从旧物体有效地转移到了新物体。在模拟和实际场景中验证了我们的方法在操纵新物体方面的有效性。
Feb, 2023
通过使用信息熵作为准则,建议教师给出更具信息量的示范样例,从而提高机器人学习效率。使用增强现实引导系统对初学者进行训练,从熵最高的区域产生额外的示范,并在同一任务(保留)和新任务(转移)上测试性能,结果发现机器人的学习效率大幅提高,与启发式规则相比提高了 210%。
Oct, 2023
文章介绍了一种学习自演示 (LfD) 方法,用于应对带有关节机制的接触丰富的操作任务。从单个人类演示中提取的策略可以推广到相同类型的不同机制,并且对环境变化具有鲁棒性,其关键是通过与环境有目的地交互来自主增强初始演示以收集附加信息。针对多 DOF 的复杂机制的实际实验表明,我们的方法可以可靠地完成任务。
Oct, 2022
通过对 2D 场景图像进行示范轨迹草图,在三维任务空间中生成运动轨迹的概率模型,以此作为一种新型的 LfD(Learning for Demonstration)范式。
Sep, 2023
我们通过集成演示学习(LfD)到运动生成过程中,在复杂环境中(包括障碍物、通过点等)解决了高自由度机械臂的运动生成问题。我们通过在大规模模拟轨迹数据集上训练一个基于条件变分自动编码器变压器的结构,学习了关键的运动生成技能,并将其适应辅助任务和约束条件。我们的自回归方法实现了来自物理系统的实时反馈整合,增强了运动生成的适应性和效率。我们表明,我们的模型可以从初始点和目标点生成运动,同时也能够适应复杂任务的轨迹规划,包括障碍物避让、通过点和速度、加速度限制,在多种平台上实现。
Mar, 2024
Constrained Equation Learner Networks 提出了一种新的受限回归学习框架,用于编程演示中的轨迹适应问题,通过学习一组分析表达式作为基函数,利用它们来最小化与训练数据的偏差,同时满足所需的适应性约束来解决轨迹适应问题,通过在仿真实验和实际机器人任务中的比较,实验证明该方法相对于现有方法能够提高机器人技能的泛化性和适应性。
Nov, 2023
Evidential Conditional Neural Processes proposes a hierarchical Bayesian structure for the uncertainty decomposition in few-shot learning tasks to achieve robustness on noisy training tasks and extensive experiments demonstrate its effectiveness.
Nov, 2022
本论文提出了一种新颖的基于演示的学习方法 —— 来自演示的可变形操作(DMfD),用于解决可变形操纵任务,它能够有效地处理高维空间和图像观测,并在 SoftGym 组件上取得了较高的性能。同时,本文还在两个具有挑战性的环境中进行了折叠布料任务的基准测试,并将 DMfD 运用于真实机器人中,与仿真损失相比性能损失最小。
Jul, 2022