元学习视觉单帧模仿学习
本研究提出了一种使用元学习技术从人类视频中进行一次学习的方法,使机器人能够学习从人类示范中执行任务,无需对人类动作进行特定设计,并且在多种任务上演示了机器人实现的能力。
Feb, 2018
本文介绍了一种使用神经网络和Transformer 注意机制的方法,通过向机器人展示上下文视频来缩小机器人学习中的领域差距,并实现了对单次操作任务的2倍成功率提升。
Nov, 2020
本文介绍了一种用于视觉模仿学习的简单方法,可以从一个人类演示中学习机器人操作任务,而无需先前了解与对象的交互情况,并且可以通过自监督学习进行训练。在实现过程中,该方法将模仿学习建模为状态估计问题,以目标交互开始时末端执行器的姿态作为状态,在自监督训练过程中让末端执行器的摄像头围绕对象自动移动。 最终,在测试时,机器人通过一条线性路径移动到预测的状态,然后简单地重放演示的末端执行器速度,从而获得了一个复杂的交互轨迹,而无需明确学习策略。在常见的8个任务上进行的实现结果表明,这种方法可以从单个人类演示中学习出多样的技能,并产生稳定且可解释的控制器。
May, 2021
提出了一种解耦表示学习与行为学习的视觉模仿学习方法,使用标准的监督和自监督学习方法来学习视觉表示编码器,然后使用非参数局部加权回归来预测行为。实验结果表明,这种简单的解耦可以提高视觉模仿模型在离线演示数据集和实际机器人开门方面的性能。
Dec, 2021
提出了一种名为 Dual Meta Imitation Learning(DMIL) 的层次元学习方法,使用模型无关元学习迭代元学习高级网络和子技能,并将来自每个子技能的状态操作对的似然作为高级网络适应的监督,理论上证明了 DMIL 的收敛性,并实现了在 Meta-world benchmark 中最先进的少量样本模仿学习性能和在长时间周期任务执行的 Kitchen 环境中有竞争力的结果。
Jan, 2022
本文旨在通过模仿学习的角度研究如何通过扩大数据采集并建立交互灵活的学习系统来促进基于视觉的机器人操作系统向新任务的泛化,当扩展真实机器人的数据采集到100个不同的任务时,我们发现此系统可以实现24个未见过的操作任务,平均成功率为44%。
Feb, 2022
FISH is a versatile imitation learning approach that can achieve an average success rate of 93% on robotic tasks by computing rewards and adaptively updating a residual policy for robust visual skills with less than a minute of human demonstrations, making it fast and efficient.
Mar, 2023
通过探索复杂任务的组合性,我们提出了一种新颖的基于技能的模仿学习框架,实现了一次性模仿和零次适应,能够从单个演示中学习复杂任务,并针对随时间变化的环境隐藏动力学优化行动序列,通过视觉-语言模型学习语义技能集合,并使用动力学推断来实现零次技能适应。我们通过多个一次性模仿场景对我们的框架进行评估,展示了其在学习复杂任务、泛化动力学变化以及在不同演示条件和模态下的优越性,相比其他基线模型。
Feb, 2024