Adnane Boukhayma, Rodrigo de Bem, Philip H.S. Torr
TL;DR利用先前计算好的人工建模和先验知识,结合深度学习的方法实现了从 RGB 图像中预测手部形状和姿态,结果显示出在标准基准测试中表现出最新颖的 3D 姿态预测效果,同时在弱监督下训练的模型也能够很好的应用于在实际环境中的 3D 形状和姿态预测。
Abstract
We present in this work the first end-to-end deep learning based method that
predicts both 3d hand shape and pose from RGB images in the wild. Our network
consists of the concatenation of a deep convolutional enc
本文提出了一种基于卷积神经网络的多阶段流水线方法,仅通过单眼红绿蓝彩色图像在众多的干扰因素下,准确分割和定位手部区域并估计 2D 和 3D 的关节点位置;采用新颖的投影算法计算相对相机坐标系的全局关节点位置,为此引入大规模合成 3D 手部姿态数据集。在 RGB-only 信息下,本文超越了以往的 3D 典型手部姿态估计基准数据集;此外,本文提供了 RGB-only 输入下首个实现双手的准确全局 3D 手部跟踪,并进行了广泛的定量和定性评估。