在这项工作中,我们提出了一种名为 Controllable Human-Object Interaction Synthesis (CHOIS) 的方法,它利用语言描述、初始物体和人体状态以及稀疏的物体路点同时生成物体运动和人体动作,通过引入物体几何损失和设计指导项来提高生成的物体运动和输入物体路点之间的匹配,并确保与地板接触的精确手 - 物体接触和适当接触的真实性。
Dec, 2023
能够从人类级别的指示中同时合成对象运动、全身运动和手指运动的第一个完整系统。
Jun, 2024
通过引入适合训练机器人的合成数据,我们提出了一个能够生成逼真人类抓取动作的框架,通过对合成数据的纯训练,证明了我们的方法在模拟环境和真实系统中与依赖真实人类动作数据的最先进方法相媲美,并且能够扩展到更多未知物体和人类动作的大规模评估。
Nov, 2023
HOIMotion 利用过去的人体姿势和视角 3D 物体边界框信息进行人体运动预测,通过编码器 - 残差图卷积网络和多层感知器从姿势和物体特征中提取特征,将姿势和物体特征融合成新颖的姿势 - 物体图,并使用残差解码器图卷积网络预测未来的人体运动。我们在 Aria 数字孪生(ADT)和 MoGaze 数据集上广泛评估了我们的方法,并显示 HOIMotion 在关节位置误差平均值方面相较于最先进的方法取得了高达 8.7%(ADT)和 7.2%(MoGaze)的显著改进。为了补充这些评估结果,我们报告了一项人类研究(N=20),表明我们的方法的改进使预测的姿势被认为比现有方法更精确和更逼真。综上所述,这些结果揭示了视角 3D 物体边界框对人体运动预测的重要信息内容以及我们的方法在利用该信息方面的有效性。
Jul, 2024
提出了一种基于强化学习的方法来处理 3D 室内场景中虚拟人类与环境以及物体的交互,包括生成运动模型、创新的碰撞回避奖励函数、基于标记体和半径场的交互感知奖励函数以及训练策略等多个方面,实验结果表明,该方法在运动的自然性和多样性方面都优于现有的人 - 场景交互综合框架。
May, 2023
提出了一种新方法,通过 hieraechical generation framework 来生成 3D 运动,以解决生成多样且长距离运动的挑战,并且在 NSM、COUCH 和 SAMP 数据集上的实验证明该方法在质量和多样性方面优于以前的方法。
Oct, 2023
我们提出了一种名为在线全身动作反应合成的新任务,该任务是基于人类行为者的动作生成机器人反应。我们构建了两个数据集,分别命名为 HHI 和 CoChair,并提出了一种统一的方法,通过构建社交能力表示,预测反应的未来情景,并验证了在现有人类互动数据集 Interhuman 和 Chi3D 上的有效性。
提出了一种基于生成模型的新的 out-of-distribution (OoD) 基准,用于预测人类运动,并且这种方法能够有效地提高模型的鲁棒性和可解释性。
Oct, 2020
通过单眼 RGB 视频直接训练具有物理可行性的人体运动的生成模型,该方法通过可微分的方式实现了物理约束和接触关系优化,并实现了与之前基于姿态识别的方法相比更高质量、更真实、更多样化的运动合成与估计。
Sep, 2021
提出了一种新的框架 ODMO,用于仅以动作类型为条件生成逼真且多样化的长期 3D 人体运动序列,并具有自定义功能。该编码器使用对比学习来创建运动序列的分层嵌入,解码器使用分层解码策略,使得整个运动序列的木乃伊能够被重构,从而实现了有效的运动轨迹控制,从而实现了首个模式发现、插值和轨迹自定义等自定义功能,该代码在 Github 页面上发布。
Jul, 2022