分层世界模型作为视觉全身人形控制器
在此项工作中,我们使用基于任务的高层控制器与低层运动控制器结合的体系结构,开发了一个控制物理仿真的复杂人形智能体的系统,以解决需要在环境中移动并从 RGB 摄像机中检测物体的任务。
Nov, 2018
我们提出了一种能够在真实世界中让机器人产生丰富、多样和表现力强的动作的方法,通过在一个人型机器人上学习一个整体控制策略,尽可能地模仿人类的真实动作。通过在强化学习框架中利用图形社区的大规模人体动作捕捉数据来训练这种策略,但是直接使用动作捕捉数据集进行模仿学习可能无法适用于真实的人形机器人,因为在自由度和物理能力方面存在巨大差距。我们的方法(Exbody)通过鼓励上半身模仿参考动作,而放松对其两条腿的模仿约束,只要求它们能够稳定地跟随给定速度来解决这个问题。通过在模拟和实际场景中进行训练和仿真转移,我们的策略可以控制一个人形机器人以不同的风格行走,与人类握手,甚至与人类共舞。我们进行了广泛的研究和比较,展示了我们方法的有效性。
Feb, 2024
我们提出了基于强化学习的人到仿真向人型机器人 (人到人型机器人,H2O) 的框架,通过仅使用一个 RGB 摄像机实现了全尺寸人型机器人的实时全身遥操作。我们使用可行运动模拟器提出了一个可扩展的 “仿真到数据” 过程,以创建用于人型机器人的大规模运动数据集,并在仿真中训练一个稳健的全身运动模拟器,然后以零样本的方式将其转移到实际人型机器人上,实现了在真实场景中的动态全身动作遥操作,包括行走、后跳、踢球、转身、挥手、推动、拳击等。据我们所知,这是实现基于学习的实时全身人型机器人遥操作的第一个演示。
Mar, 2024
研究对象学习通用设置,构建代理可从第三人称的视频中学习并操作未见过的物体,通过分层式结构实现,高级模块生成子目标序列,低级控制器实施,无需完整状态信息,实验展示在 Baxter 机器人上完成倒和放置物体等操作。
Nov, 2019
该研究提出了一种基于计算机视觉概念,使用深度神经网络从摄像头观测和专业演示数据中训练世界模型和政策的通用框架,该模型可以预测鸟瞰图空间中动态汽车的未来轨迹,并在城市驾驶环境中联合预测静态场景、动态场景和特定行为。
Jun, 2023
我们提出了一种方法,通过仅利用许多不同设置的少量实际交互轨迹,使机器人能够有效地学习操纵技能,并由此建立了一个基于人的视频的结构化行为空间,从而使不同的机器人能够在复杂环境下学习各种操纵技能。
Aug, 2023
本研究旨在使用生成神经网络建立流行的强化学习环境下的世界模型,并利用该世界模型进行无监督学习,学习环境的空间和时间紧凑表示。通过使用从世界模型提取的特征作为代理输入,我们可以训练出非常紧凑和简单的策略来解决所需任务。我们甚至可以在代理自己的幻象梦境中完全进行训练,并将该策略传输回实际环境中。
Mar, 2018
提出使用增强学习学习整体控制策略来实现对四肢机器人的控制,以解决四肢协调和模块间错误传播的问题,该统一策略可在多种任务设置中展示动态和敏捷行为。
Oct, 2022