人体物体交互:基于人类级别指令
通过使用基于大型语言模型的规划器,我们克服了当前固定技能集的限制,提出了一种用于数据和时间高效教授机器人这些技能的方法,该系统可以重复使用新习得的技能,展示了开放世界和终身学习的潜力。
Sep, 2023
该论文介绍了一种利用大型语言模型(LLM)进行自主机器人操纵的新方法,通过逻辑推理将高层语言命令转化为可执行的运动函数序列。所提出的系统将 LLM 的优势与基于 YOLO 的环境感知相结合,使机器人能够根据给定的命令自主做出合理的决策和任务规划。此外,为了解决 LLM 可能出现的不准确性或不合逻辑的行为,采用了远程操作和动态运动原理(DMP)的组合进行行为校正。这种融合旨在提高 LLM 基础的人机协作系统的实用性和通用性。
Aug, 2023
我们提出了一种在多个仿真平台上生成 ' 类人 ' 指令的基于 LLM 的方法,该方法不依赖于任何形式的训练,通过少数参考即可使用上下文学习来生成指令。
Mar, 2024
通过在大型语言模型(LLMs)中引入物体的运动学知识,我们提出了一个运动学感知的提示框架,来生成各种物体操作的低层运动轨迹航点,从而实现智能机器人的通用操控。我们的实验结果表明,该框架在 8 个已知物体类别上表现优于传统方法,并且在 8 个未知的关节式物体类别上展现出强大的零样本能力。同时,我们在 7 个不同的物体类别上进行的真实世界实验也证明了该框架在实际场景中的适应性。
Nov, 2023
我们提出了一种基于物理的方法来合成全身手物交互。通过通过一个层次化框架,并结合强化学习和物理仿真,我们首先在解耦环境中学习身体和手部运动的技能先验。然后,我们使用一个新颖的奖励函数训练一个高层策略,以在预训练的潜在空间中控制手物交互。我们的方法成功完成了从接近物体到抓取和后续操纵的完整交互任务,并展示出比基于运动学的基线方法更具物理合理性的动作。
Sep, 2023
通过将物体运动作为条件,我们提出了一种能够从物体运动中生成全身操作行为的条件扩散框架(OMOMO),该框架学习两个独立的去噪过程,首先从物体运动中预测手的位置,然后基于预测的手位置合成全身姿势,从而显式地强制执行接触约束,从而产生更加真实可信的操作动作。
Sep, 2023
在这项工作中,我们提出了一种名为 Controllable Human-Object Interaction Synthesis (CHOIS) 的方法,它利用语言描述、初始物体和人体状态以及稀疏的物体路点同时生成物体运动和人体动作,通过引入物体几何损失和设计指导项来提高生成的物体运动和输入物体路点之间的匹配,并确保与地板接触的精确手 - 物体接触和适当接触的真实性。
Dec, 2023
本文提出了一个在未知环境中自主交互大型铰接物体的两阶段架构,第一阶段是以物体为中心的规划器,第二阶段是以智能代理为中心的规划器,并且在移动障碍物的情况下,通过优化控制问题确保安全跟踪所生成的计划。
Mar, 2021
模型 InterControl 利用大型语言模型规划器将人的交互描述转化为接触计划,通过基于接触计划的空间可控运动生成方法实现交互生成,进而实现对每个人的每个关节的灵活空间控制。
Nov, 2023
提出了一种基于 HYPERmotion 框架的自主学习与行为规划方法,该方法结合了强化学习和全身优化,并且利用复杂的环境信息和大型语言模型的规划和推理功能,可以使机器人实现高自由度的行为适应性。
Jun, 2024