CVPRApr, 2024

面向高效人体网格估计的 MoCap 到视觉领域自适应从 2D 关键点

TL;DR提出了一个名为 Key2Mesh 的模型,使用 2D 人体姿势关键点作为输入并估计相应的身体网格。利用大规模的运动捕捉数据集对模型进行训练,克服了缺乏带有 3D 标签的图像数据集的问题。通过在 RGB 图像上应用对抗性领域自适应方法,提高了模型在 RGB 图像上的性能,无需昂贵的标签。在 H3.6M 和 3DPW 数据集上的结果表明,Key2Mesh 在 PA-MPJPE 方面超过其他模型,也在 MPJPE 和 PVE 方面超过了 3DPW 数据集中的其他模型。