Sep, 2024
Gen2Act:人类视频生成在新场景下实现可泛化的机器人操作
Gen2Act: Human Video Generation in Novel Scenarios enables Generalizable
Robot Manipulation
TL;DR本研究解决了机器人操作政策在未见物体类型和新动作任务中的泛化问题。通过预测网络数据中的运动信息,采用人类视频生成的方法来指导机器人操作,展示了如何利用轻松获取的网络数据训练的生成模型,使机器人能够完成之前未接触过的任务。我们的实验结果表明,该方法显著提高了机器人在多种真实场景中的操作能力。