人机合作:通过眼手协同人类演示学习可推广的机器人操作
本文介绍了一种用于视觉模仿学习的简单方法,可以从一个人类演示中学习机器人操作任务,而无需先前了解与对象的交互情况,并且可以通过自监督学习进行训练。在实现过程中,该方法将模仿学习建模为状态估计问题,以目标交互开始时末端执行器的姿态作为状态,在自监督训练过程中让末端执行器的摄像头围绕对象自动移动。 最终,在测试时,机器人通过一条线性路径移动到预测的状态,然后简单地重放演示的末端执行器速度,从而获得了一个复杂的交互轨迹,而无需明确学习策略。在常见的8个任务上进行的实现结果表明,这种方法可以从单个人类演示中学习出多样的技能,并产生稳定且可解释的控制器。
May, 2021
提出了一种新的基于模仿学习的框架(DIME),借助单个RGB相机观察人类运营,并在多指控制策略上进行了培训,以解决机械手复杂操纵任务的挑战。
Mar, 2022
提出了基于PLEX架构的机器人操作学习方法,该方法通过任务无关的视觉运动轨迹和大量的对象操作视频训练机器人学习任务无关的多任务策略,并在相应实验中展示了其在机器人学习中的高效性能。
Mar, 2023
通过一个基于视频的条件学习智能体(ViP)方法,本文提出了一种无需训练数据就能够通过人类演示来控制机器人操作的方法,该方法在多项机器人操作环境中的表现优于现有技术,并在新的零样本设置中展现出良好的性能,可能具有广泛的应用前景。
May, 2023
我们研究如何通过大量的人类视频数据学习机器人在与未知对象交互时的多样化操作技能,采用分解方法从人类视频数据中学习人类如何完成期望任务,并将其转化为机器人的行为,从而实现零样本通用操作。
Dec, 2023
通过从单个人类视频中提取以对象为中心的操纵计划并推导出条件为提取计划的策略,我们提出了一种以对象为中心的方法,为机器人学习基于视觉的操纵技能提供支持。我们的方法允许机器人从iPad等日常移动设备捕获的视频中学习,并将策略推广到具有不同视觉背景、摄像机角度、空间布局和新颖对象实例的部署环境中。通过对短程和长程任务进行系统评估,我们展示了ORION在从单个人类视频中学习开放世界中的有效性。
May, 2024
在这篇论文中,我们提出了一种视觉-运动策略学习框架,该框架在给定任务的人类示范中对视频扩散模型进行微调。在测试阶段,我们生成了一个以新颖场景的图像为条件的任务执行示例,并直接使用这个合成的执行结果来控制机器人。我们的主要观点是,使用常用工具可以轻松地弥合人手和机器人操作者之间的具身隔阂。我们在四个复杂度不断增加的任务上评估了我们的方法,并证明利用互联网规模的生成模型使得学习策略可以比现有行为克隆方法实现更高程度的泛化。
Jun, 2024
本研究解决了机器学习在机器人操作中的普适性和适应性问题,提出了一种利用现实视频生成传感器-运动机器人轨迹的新方法。通过在共享3D空间中提升人手和被操作物体,研究显示对基于这一生成模型的政策进行微调,可以实现高效的样本适应,同时提高适用性和鲁棒性。
Sep, 2024