利用 RGB 摄像机进行超长距离人机交互中的手势识别
本文介绍了一个用于大量静态手势和动态手势分类识别的人机交互框架,利用佩戴式传感器进行数据收集,并采用降维和神经网络等处理技术,最终实现了在实时环境下的高准确率手势识别。
Apr, 2023
本研究提出了一种从最多 20 米的远距离识别动态手势的模型 (SlowFast and Transformer architectures),该模型能有效处理和分类视频帧中捕捉到的复杂手势序列,并且在性能上明显优于现有模型。
Jun, 2024
提出了一个基于设备的实时手势识别系统,利用单个 RGB 相机检测一组预定义的静态手势,该系统包括手骨骼跟踪器和手势分类器,使用 MediaPipe Hands 作为手骨骼跟踪器的基础,在世界度量空间中添加了 3D 关键点的估计,并创建两个不同的手势分类器,一个基于启发式方法,另一个使用神经网络。
Oct, 2021
对于机器人完成复杂任务来说,对象识别是基本要求。在人机交互的超远距离姿势识别方面,我们提出了基于扩散模型的超远距离扩散(DUR)框架,能够生成各种场景中远距离对象的标记图像,并且在训练超远距离姿势识别模型时表现出了优越性。
Apr, 2024
本文提出了一种利用基于点云的交叉学习方法(从相机到六十吉赫兹 FMCW 雷达)的长距离(1m-2m)手势识别解决方案,使用动态图卷积神经网络(DGCNN)建模点之间的关系并用双向 LSTM 网络建模时间动态,实验结果表明该模型在五个手势的整体精度达到了 98.4%且具有泛化能力。
Mar, 2022
我们提出了一种新颖、准确和高效的手势识别方法,通过动态神经网络从输入传感器数据的手势所在空间区域中选择特征进行进一步处理,从而使网络能够专注于手势识别所需的重要特征,并且在计算效率上优于其他技术。我们在 LD-ConGR 长距离数据集上展示了我们方法的性能,它在识别准确度和计算效率上优于之前的最先进方法。
Aug, 2023
HGR-Net 是一个使用两个 CNN 阶段的手势识别模型。第一阶段执行精确的语义分割以确定手部区域,第二阶段在深度表示的融合分类之前识别手势。通过在公共数据集上进行的大量实验,该模型在静态手势的分割和识别方面几乎达到了与最先进性能相当的效果。
Jun, 2018
本研究聚焦于手势识别,通过数据级融合和多流卷积神经网络架构的集成调节器,有效地解决了人手形态中的个体差异问题,将骨骼模式的时空手势信息编码到 RGB 图像中,从而提高了姿势理解的语义并降低了噪声,其在 SHREC2017、DHG1428、FPHA、LMDHG 和 CNR 等基准数据集上实现了实时运行,大幅减少硬件需求和计算复杂性,为资源受限设备的人机交互和环境智能提供了可靠性和创新性。
Jun, 2024
本文提出了一种基于实时计算机视觉的手势识别应用程序的自然用户界面工具,该工具使用用户手上的虚拟手套标记作为输入,并采用深度学习模型进行实时手势识别。研究表明,该系统可以在社交互动和康复等实时应用中发挥有效作用。
Jul, 2022