通过密集对应学习从无行为视频中行动
通过一个基于视频的条件学习智能体(ViP)方法,本文提出了一种无需训练数据就能够通过人类演示来控制机器人操作的方法,该方法在多项机器人操作环境中的表现优于现有技术,并在新的零样本设置中展现出良好的性能,可能具有广泛的应用前景。
May, 2023
通过观察人类行为并将其翻译成可执行的动作,本研究介绍了一种基于视频学习的机器人框架 Vid2Robot,它通过训练机器人模型利用人类视频和机器人轨迹数据集进行任务执行。该模型利用交叉注意力机制将提示视频特征融合到机器人的当前状态中,并生成能够模仿所观察任务的适当动作,大幅提升执行效果,同时显示着在真实世界应用中的潜力。
Mar, 2024
该研究提出了一种模型无关的深度强化学习方法,利用少量的演示数据来协助强化学习代理。作者将该方法应用于机器人操作任务并训练了端到端的视觉 - 动力学策略,直接从 RGB 相机输入到关节速度。实验结果表明,与仅使用强化学习或模仿学习训练代理的结果相比,作者的强化和模仿代理取得了显著的性能提高。此外,这些训练有素的策略在模拟到现实世界的零样本情况下也能获得初步的成功。
Feb, 2018
我们的研究旨在通过学习一种统一的基于视觉的策略,使多指机械手能够在各种姿势下操纵不同的物体。我们提出了一种新的框架 ViViDex,通过使用强化学习和轨迹引导奖励训练每个视频的基于状态的策略,从而获得视觉自然且物理可行的轨迹,并在不使用任何特权信息的情况下训练出一个统一的视觉策略,该方法通过坐标转换方法显著提升了性能,在三个灵巧操纵任务上展示出了较大的改进。
Apr, 2024
在这篇论文中,我们提出了一种视觉 - 运动策略学习框架,该框架在给定任务的人类示范中对视频扩散模型进行微调。在测试阶段,我们生成了一个以新颖场景的图像为条件的任务执行示例,并直接使用这个合成的执行结果来控制机器人。我们的主要观点是,使用常用工具可以轻松地弥合人手和机器人操作者之间的具身隔阂。我们在四个复杂度不断增加的任务上评估了我们的方法,并证明利用互联网规模的生成模型使得学习策略可以比现有行为克隆方法实现更高程度的泛化。
Jun, 2024
我们研究了从单个人类表演视频中学习多阶段基于视觉的任务,同时利用不同对象的子任务演示数据,学习如何从原始像素中学习基本行为并动态组合这些行为以执行多阶段任务的方法。
Oct, 2018
通过利用 “提议(proposals)” 方法生成行为区域的模型训练,能够在无约束视频中实现人的行为识别,无论是否存在摄像头运动;该方法在两个新的数据集中取得了超越最先进技术的性能,同时在异常行为检测场景中取得较高的成功率。
Jan, 2017
本论文提出一种基于无标注训练数据的方法,结合深度动作条件视频预测模型和模型预测控制,使真实机器人能够进行非抓取操作,比如推动物体,并且可以处理训练过程中没有出现过的新物体。
Oct, 2016
本文提出了一种使用自监督对应关系用于提高视运动策略学习的泛化性能和样本效率的方法,并通过模仿学习演示了在挑战性的操作任务中使用少量演示即可实现广泛的硬件验证。
Sep, 2019