CVPRApr, 2024

G-HOP: 交互重建和抓取合成的生成式手 - 物体先验模型

TL;DR我们提出了 G-HOP,一种基于去噪扩散的生成先验,用于手 - 物体交互,可以对 3D 物体和人手进行建模,并条件于物体类别。我们通过使用骨骼距离场来表示人手,从而得到与物体(潜在)有向距离场对齐的表示,学习一个可以捕捉这种联合分布的 3D 空间扩散模型。我们展示了这个手 - 物体先验可以作为通用指导,在交互裁剪的重建和人手抓取合成等其他任务中发挥作用。我们相信,我们的模型通过汇集 155 个类别的七个多样化的现实世界交互数据集进行训练,提供了一种联合生成手和物体的初次尝试。我们的实证评估表明,在基于视频的重建和人手抓取合成方面,这个联合先验具有超越当前任务特定基准的优势。