从单张 RGB 图像学习估计 3D 手部姿势
本文提出了一种基于图形卷积神经网络的方法,从单个 RGB 图像中估算手的 3D 形状和姿态,并通过含 3D 地面真值的大规模合成数据集和深度图弱监督学习进行训练,结果表明可以对手的 3D 网格进行准确和合理的重建,并在与现有最先进方法的比较中达到了更高的 3D 姿态估计准确性。
Mar, 2019
本篇论文提出了一种从 RGB 图像中估计手部姿势的方法,该方法在训练时利用了相应的深度图像,使用深度数据来初始化深度网络、约束 RGB 网络权重、及抑制背景区域反应,使用 RGB 和深度图像的配对数据,训练 RGB 网络以学习深度网络中的中层特征,该方法在三个公共数据集上的实验结果表明,与使用 RGB 图像输入的其他方法相比,性能更优越。
Nov, 2018
使用新的 3D 神经网络架构,通过深度图到三维体积表示的转化,直接对手的三维姿态进行估计,无需进一步处理。同时通过合成深度图来增加训练数据覆盖率,在公开数据上达到了最优性能。
Apr, 2017
本文提出了一种基于卷积神经网络的多阶段流水线方法,仅通过单眼红绿蓝彩色图像在众多的干扰因素下,准确分割和定位手部区域并估计 2D 和 3D 的关节点位置;采用新颖的投影算法计算相对相机坐标系的全局关节点位置,为此引入大规模合成 3D 手部姿态数据集。在 RGB-only 信息下,本文超越了以往的 3D 典型手部姿态估计基准数据集;此外,本文提供了 RGB-only 输入下首个实现双手的准确全局 3D 手部跟踪,并进行了广泛的定量和定性评估。
Jun, 2020
该论文提出了一种新方法,利用多视角投影和学习的姿态先验,通过多视角热图来回归手部姿态,最终得出三维手势估计,实验表明该方法在难以应对的数据集上取得了优异表现。
Jun, 2016
本文提出一种使用 2.5D 姿势表示的新方法来从单目图像中估计 3D 手部姿态,通过使用深度图和热力图分布来训练卷积神经网络 (CNN) 模型,该模型在多个数据集上实现了最先进 2D 和 3D 手部姿态的估计。
Apr, 2018
本文提出一种基于深度传感器的、具有先验的手势识别系统,使用包含自我场景的光辉合成模型来生成训练数据,并在真实环境下进行测试。结果表明,该方法在单目 RGB-D 图像中的手部检测和姿态估计方面均具有最先进的性能。
Nov, 2014
利用 RGBD 图像估算 3D 人体姿态,通过关键点检测器和深度信息实现 3D 提升,在真实环境下通过学习演示框架指示服务机器人模仿人类教师的操作,超越了单眼调色板和深度姿态估计方法的性能。
Mar, 2018
利用先前计算好的人工建模和先验知识,结合深度学习的方法实现了从 RGB 图像中预测手部形状和姿态,结果显示出在标准基准测试中表现出最新颖的 3D 姿态预测效果,同时在弱监督下训练的模型也能够很好的应用于在实际环境中的 3D 形状和姿态预测。
Feb, 2019