XSkill:跨体现技能发现
本文介绍了一种用于视觉模仿学习的简单方法,可以从一个人类演示中学习机器人操作任务,而无需先前了解与对象的交互情况,并且可以通过自监督学习进行训练。在实现过程中,该方法将模仿学习建模为状态估计问题,以目标交互开始时末端执行器的姿态作为状态,在自监督训练过程中让末端执行器的摄像头围绕对象自动移动。 最终,在测试时,机器人通过一条线性路径移动到预测的状态,然后简单地重放演示的末端执行器速度,从而获得了一个复杂的交互轨迹,而无需明确学习策略。在常见的8个任务上进行的实现结果表明,这种方法可以从单个人类演示中学习出多样的技能,并产生稳定且可解释的控制器。
May, 2021
该研究旨在通过自我监督的方法,使用跨代理之间的演示视频来自动发现和学习视觉奖励函数,以训练在不同体型和动作的情况下进行任务的智能体。研究结果表明,这种方法不仅提高了效率,还具有良好的泛化性能。
Jun, 2021
本文提出了SAPIEN Manipulation Skill Benchmark(ManiSkill),用于在全物理模拟器中基于多种对象进行操作技能测试,旨在支持互动和演示学习方法,并提供用于3D深度学习和LfD算法的基线。
Jul, 2021
该研究通过使用未标注的人类操作视频来学习机器人操作策略的任务不可知奖励函数,并采用时间对比学习得到的嵌入空间中的距离以及直接时间回归来评分从而实现在各种任务上重复使用一个模型,从而能够在多个操纵任务上加速训练,而无需从机器人环境中获得先验数据,也无需使用特定于任务的人类演示数据。
Nov, 2022
ManiSkill2是SAPIEN ManiSkill基准的下一代版本,它包含20个操作任务族,2000多个物体模型和4M多演示帧,定义了一个统一的界面和评估协议,支持各种算法,视觉观察和控制器,并赋予快速视觉输入学习算法的能力。
Feb, 2023
通过探索复杂任务的组合性,我们提出了一种新颖的基于技能的模仿学习框架,实现了一次性模仿和零次适应,能够从单个演示中学习复杂任务,并针对随时间变化的环境隐藏动力学优化行动序列,通过视觉-语言模型学习语义技能集合,并使用动力学推断来实现零次技能适应。我们通过多个一次性模仿场景对我们的框架进行评估,展示了其在学习复杂任务、泛化动力学变化以及在不同演示条件和模态下的优越性,相比其他基线模型。
Feb, 2024
本研究解决了跨形态逆强化学习中从混合质量示范学习奖励函数的问题。我们提出通过人类反馈来改进表示学习和对齐的方法,以便更有效地进行跨形态学习。研究结果表明,不同的表示学习技术会导致奖励塑造行为的显著差异,而人类反馈在处理混合质量和混合形态的数据时至关重要。
Aug, 2024
本研究解决了机器人操作中技能学习的挑战,提出了一种新颖的技能学习方法,通过自动生成大量多样化任务来发现可组合的行为。研究结果表明,所学习的技能能帮助机器人稳健地与环境中的物体互动,并成功应用于未见的操作任务中,具有重要的实际应用潜力。
Oct, 2024