- 从少量示范学习双臂机器人带有触觉反馈遥操作系统的可变柔顺控制
通过虚拟现实控制器提供直观且经济的任务演示方法,结合动作块划分和变量合规性控制的方法,提高了刚性机器人的灵活适应性和安全性。
- JUICER: 数据高效的机器人装配模仿学习
本文提出了一种在小规模人类示范预算下改善模仿学习性能的流程,并将其应用于需要高精度和长视程操作的装配任务,通过结合表达能力强的策略架构和数据集扩展与基于仿真的数据增强等技术来扩展数据集支持并在高精度要求的瓶颈区域附近监督模型的局部纠正动作, - 偏好条件下的语言引导抽象
使用语言模型查询来构建状态抽象,以捕捉机器人学习中人类偏好的变化和指导,通过在模拟实验、用户研究和移动操作任务中的应用来证明其有效性。
- CEIL: 广义情境模仿学习
本文提出了一种广泛适用的算法 CEIL,它是一种涉及到背景信息匹配的模仿学习算法,与传统的学习任务不同,它能够有效地应用于多个场景。
- 通过动态运动基元增强顺应性的人机技能转移
提出了一种系统的方法来从人类演示中提取动态特征,以自动调整 DMP 框架中的参数,此方法可与 LfD 和 RL 一同使用,可使机器人更有效地探索可能的轨迹,从而显着提高机器人的遵从性,并在实际的人机交互实验中得以验证。
- 弥合示范学习中的动作空间不匹配
使用 Morphological Adaptation in Imitation Learning (MAIL) 框架,从 3D 带障碍物情况下,带有两个末端执行器的机器人的演示中训练出一个末端执行器的 Franka Panda 机器人的可 - 分层决策 Transformer
本文提出了一种层次算法用于从演示中学习序列模型,可解决强化学习中的任务策略估计问题,通过选择子目标来指导低层控制器完成任务,改善了以往方法的性能,并证明了其在多项任务中优于基线方法,表明层次模型适用于从演示中学习序列模型。
- 基于深度强化学习的分层任务分解:拾取和放置子任务
提出一种多子任务增强学习的方法,将复杂的拾取和放置任务分解为低级子任务,并通过 DRL 方法学习,然后高级协调员将训练好的子任务组合来完成拾取和放置任务,此方法在样本效率方面表现优于以 LfD 为基础的基准方法,并在实际机器人系统中展示了鲁 - AAAI传感器漂移下的模仿学习与决策的因果转移
该研究提出了一种基于因果模型的框架,解决了学习者、演示者和训练代理不同的传感器输入(sensor-shifts)导致的问题,在两个常见的 LfD 任务中进行转移学习:(1)推断演示者的行为效应和(2)模仿学习。
- AAAI使用分层策略从干预中学习以实现安全学习
通过将专家的干预向前插值并将策略分为两个层次,一个生成未来的子目标,另一个生成到达这些期望子目标的动作,我们在学习过程中引入了目标预测的思想,从而增强算法学习长期行为,同时还能够抵御专家反应时间的影响,提高了机器人上的学习效果。
- 基于模型的高斯过程演示学习
本文提出了一种基于高斯混合回归的新型多输出高斯过程(MOGP)方法,利用 MOGP 的协方差将从演示中检索的变异性捕获起来,使机器人能够精确跟踪经过点,同时在高变异地区保持的柔顺性。
- ICLR使用主动推理的贝叶斯策略选择
该论文研究了基于自由能原理的主动推理对机器学习中的强化学习和示范学习问题的解决,并将此概念应用于标准问题山车问题,结果表明主动推理可以涵盖强化学习和示范学习技术。
- NIPS从示范中学习任务规范
本文提出了一种从机器人演示中学习非马尔可夫奖励的方法,通过最大后验概率推断问题,采用最大熵原理推导出演示似然模型,并用有效的方法在候选规范的大池中搜索最有可能的规范,实验表明学习规范有助于避免由于即席奖励组合而经常出现的常见问题。