基于深度旋转的指尖检测方法
该论文提出了基于深度学习的手部检测方法,在同一时间内对手部进行检测和旋转校准。借助上下文感知建议生成算法以保证召回率,并设计了一个 CNN 来显式处理物体旋转问题,实验证明该方法在人机交互等领域的应用优于现有方法。
Dec, 2016
本文提出了一种快速的方法,使用单个深度相机准确跟踪手的快速和复杂关节动作,通过使用新型检测引导优化策略结合高斯混合表示深度估计出最佳拟合姿势,并展示了在公共数据集上的评估结果和与之前工作的比较。
Feb, 2016
本研究提出了一种基于两流 CNN 和慢融合策略的 RGB-D 指尖检测算法,实验结果表明此算法对于人机交互有着较高的精度。
Dec, 2016
本文研究使用卷积神经网络结构,预测手的三维关节位置,并通过引入关节先验和有效利用上下文来提高方案的预测精确性和可靠性,在多个基准测试中都表现出了远胜于现有技术的高精度和较快的计算时间。
Feb, 2015
使用全景相机提出了一种使用指向手势的机器人导航直观操作方式,通过反复从全景图像中提取感兴趣区域并投影到透视图像上,消除了用户 / 目标位置约束和指向臂的左 / 右约束,并通过机器学习训练目标对象的可能性进一步提高了估计的准确性。
Aug, 2023
本文提出一种基于深度传感器的、具有先验的手势识别系统,使用包含自我场景的光辉合成模型来生成训练数据,并在真实环境下进行测试。结果表明,该方法在单目 RGB-D 图像中的手部检测和姿态估计方面均具有最先进的性能。
Nov, 2014
该论文提出了一种新方法,利用多视角投影和学习的姿态先验,通过多视角热图来回归手部姿态,最终得出三维手势估计,实验表明该方法在难以应对的数据集上取得了优异表现。
Jun, 2016
本研究提出了一种混合方法,结合最佳实践和传统方法,采用卷积神经网络过滤高度不规则的数据,并使用点对投票方法恢复对象的姿态,该方法使用最佳性能的实例检测器和训练集进行自动方法选择。通过在 BOP 核心数据集上验证,本方法大幅优于基准方法,并成为 BOP 2020 挑战赛中最佳快速方法。
Nov, 2020
该论文介绍了一种基于深度信息的机器人手臂感知与图像识别框架,包括自适应手指检测、点云数据处理、全局位姿估计、轨迹规划与性能分析等组件,该框架可以实现对高度遮挡物体进行精准的位姿估计与反应迅速的操作控制。
Mar, 2020
本文提出了一种基于深度学习的算法,用于精确定位和标记斜向和过度旋转的掌纹影像中的指纹,并通过在新数据集上的训练证明此算法在不同年龄组的掌纹影像中均具有不变性,并在成年人和儿童主体的正常和旋转图像的综合数据集中,实现了 97.17%的匹配准确度,表现优于现有的系统。
Mar, 2023