- 大规模多视角 3D 手势姿态数据集
提出一个多视角手势姿势数据集和一个既简单又准确的、用于实时鲁棒的 2D 手势姿势估计的深度学习框架。
- Hand3D:使用 3D 神经网络进行手部姿态估计
使用新的 3D 神经网络架构,通过深度图到三维体积表示的转化,直接对手的三维姿态进行估计,无需进一步处理。同时通过合成深度图来增加训练数据覆盖率,在公开数据上达到了最优性能。
- ICCV基于自我参照 RGB-D 传感器的实时遮挡手部追踪
使用两个连续应用的卷积神经网络(CNN)对手部进行定位并回归三维关节位置,进而实现在复杂环境中移动自视角 RGB-D 相机下的实时、稳健和准确的手部姿态估计。
- 区域集成网络:改进卷积网络用于手势姿势估计
本文提出一个结构为树形的区域集成网络,用于从单眼深度图像中进行手势姿势估计,并具有端到端训练的完全性。在两个公共数据集上的实验结果表明,此方法在各方面的表现均优于现有技术。
- 基于模型的深度手部姿态估计
本研究提出了一种基于深度学习的手部姿态估计方法,采用正向运动学来保证估计的姿态的几何有效性,并验证了该方法在公共数据集上实现了最先进的性能。
- CVPR高效创建三维训练数据以进行手部姿态细化估计
本文提出了一种半自动标记方法,该方法可以高效地标记手深度视频的每一帧,从而获得 3D 关节位置数据用于训练手势估计模型,并在手势识别领域取得了最先进的精度。
- ECCV基于部分粒子群优化的空间关注深度网络用于分层混合手部姿态估计
本文提出一种新的手势姿势估计方法,采用运动层次结构策略到判别性手势姿势方法的输入和输出空间,并通过空间注意机制和层次粒子群优化来优化生成性模型,实验结果表明该方法在三个公共基准测试中显著优于四种最先进的方法和三个基线。
- 学习导航能量景观
本文提出一种新颖高效的架构,用于解决使用 “分析与合成” 方法的计算机视觉问题,并在 RGB 相机重定位、手姿估计和图像检索任务上展示了其有效性。
- 基于深度旋转的指尖检测方法
使用深度卷积神经网络,结合 DeROT 技术,实现全局方向回归并解决深度图像中手指尖检测的问题,无需跟踪、运动学约束或显式先验模型。同时,还提出了高精度磁性标注和标签化对象图像的新管道。
- 基于深度的手部姿态估计:方法、数据和挑战
手势姿态估计方面已有巨大进展,但在处理复杂场景,特别是手与周围物体交互的情况下仍存在困难。此研究提出了一个具有挑战性的新数据集,并定义了一个一致的评估标准,同时引入了一个简单有效的最近邻基线系统,加以比较,结果表明相当一部分系统无法在训练集 - ECCV自我中心 RGB-D 图像中的 3D 手势姿态检测
本文提出一种基于深度传感器的、具有先验的手势识别系统,使用包含自我场景的光辉合成模型来生成训练数据,并在真实环境下进行测试。结果表明,该方法在单目 RGB-D 图像中的手部检测和姿态估计方面均具有最先进的性能。