In this work we address the challenging problem of 3d human pose estimation
from single images. Recent approaches learn deep neural networks to regress 3D
pose directly from images. One major challenge for such m
通过两种独立的训练来源 (2D 姿势标注的图像和准确的 3D 运动捕捉数据),提出一种双源方法,将 2D 姿态估计与高效稳健的 3D 姿态检索结合,从而解决单个 RGB 图像的 3D 姿态估计中获取足够训练数据的问题,实验表明,该方法达到了最先进的结果,并且即使是两个训练来源中的骨架结构差别显著时也具有竞争性。
本文提出了一种用于从单个 RGB 图像中估计人类姿势的统一方法,通过联合推理 2D 关节估计和 3D 姿势重建来改善两个任务,并使用可信的 3D 地标位置知识来对更好的 2D 位置进行搜索,并通过多级卷积神经网络架构综合了 3D 人体姿势的概率知识,并在 Human3.6M 数据集上进行了端到端的训练,最终获得了在 2D 和 3D 误差上优于之前方法的最新结果。