Our work aims to reconstruct hand-held objects given a single RGB image. In
contrast to prior works that typically assume known 3d templates and reduce the
problem to 3D pose estimation, our work reconstructs gen
研究 3D 手势姿势估计中不同类型方法的泛化能力,并通过公开挑战评估插值和外推的训练集姿势的能力,透彻分析了数据预处理、集成方法、使用参数化的 3D 手模型(MANO)以及不同的 HPE 方法 / 骨干网络对 3D 手姿势估计的影响,使得总体精度从基线的 27mm 提高到 13mm,尤其是在外推任务中。