手势姿势估计的密集三维回归
本文提出一种使用 2.5D 姿势表示的新方法来从单目图像中估计 3D 手部姿态,通过使用深度图和热力图分布来训练卷积神经网络 (CNN) 模型,该模型在多个数据集上实现了最先进 2D 和 3D 手部姿态的估计。
Apr, 2018
该论文提出了一种新方法,利用多视角投影和学习的姿态先验,通过多视角热图来回归手部姿态,最终得出三维手势估计,实验表明该方法在难以应对的数据集上取得了优异表现。
Jun, 2016
使用新的 3D 神经网络架构,通过深度图到三维体积表示的转化,直接对手的三维姿态进行估计,无需进一步处理。同时通过合成深度图来增加训练数据覆盖率,在公开数据上达到了最优性能。
Apr, 2017
该研究提出了一种使用端到端方法从立体相机中估计完整的三维手势姿态的方法,通过神经网络架构的扩展,该方法能够更好地实现稀疏视差手关节的估计,并且提出了一种大规模的合成数据集来有效训练模型。
Jun, 2022
通过改进密集回归方法并将 3D 手势定位问题转化为密集序回归问题,提出了一种新颖的密集序回归 3D 姿势网络(DOR3D-Net),在公开数据集上通过综合实验显示出较现有方法的显著提升。
Mar, 2024
通过使用卷积神经网络结构,从单个深度图像中学习手部姿势,骨骼比例和复杂形状参数,以及使用一个新的手部姿势和形状层来产生 3D 关节位置和手部网格,利用 SynHand5M 数据集,在综合数据集上展示了良好的效果。
Aug, 2018
本论文提出了一种基于像素回归的新方法,采用空间形态表示和可微分解码器来解决三维手部姿态估计的问题,实验结果显示本方法比现有方法更优,在三个公共数据集上将平均 3D 关节误差降低了 25%。
May, 2019
本文提出了一种半自动标记方法,该方法可以高效地标记手深度视频的每一帧,从而获得 3D 关节位置数据用于训练手势估计模型,并在手势识别领域取得了最先进的精度。
May, 2016
采用紧凑的参数化 3D 手模型对单个 RGB 图像进行三维手模型估计,运用神经渲染、迭代测试和自我数据增强方法,并在三个基于 RGB 的基准测试中证明了优越性。
Apr, 2019
本文提出了一个新颖的端到端框架,用于从单眼图像或序列中估计三维手部姿势。通过使用用于生成目的的扩散模型并引入显式的正向运动学层,我们确保生成的姿势符合实际。通过在连续帧的时间窗口上添加 Transformer 模块,我们在提升精确度的同时克服了抖动问题。该方法在几个不同的数据集上通过定量和定性评估展示了领先的鲁棒性、泛化性和准确性。
Aug, 2023