- 实时手势识别:骨骼数据融合和多流 CNN 的整合
本研究聚焦于手势识别,通过数据级融合和多流卷积神经网络架构的集成调节器,有效地解决了人手形态中的个体差异问题,将骨骼模式的时空手势信息编码到 RGB 图像中,从而提高了姿势理解的语义并降低了噪声,其在 SHREC2017、DHG1428、F - 共振火力尖峰神经元用于目标检测和手势识别:一种混合方法
该论文提出了一种使用雷达进行手势识别的替代方法,该方法利用共振 - 发火神经元来绕过计算复杂且耗时的快速傅里叶变换,直接在时域信号中检测手势,消除了获取距离信息的快速傅里叶变换的需求。在检测之后,采用简单的 Goertzel 算法提取五个关 - 一种自适应多模态融合的进化网络架构搜索框架用于手势识别
我们提出了一个具有自适应多模态融合的进化网络架构搜索框架(AMF-ENAS),通过自动解码,能够自动构建具有不同架构的多模态网络,该算法在多模态手势识别(MHGR)方面取得了最先进的性能。
- 利用低成本单光子雪崩二极管阵列增强手势识别的脉冲神经网络
我们提出了一种紧凑的脉冲卷积神经网络(SCNN)和脉冲多层感知机(SMLP),用于在黑暗和明亮的环境中使用 9.6 个单光子雪崩二极管(SPAD)阵列来识别十种不同的手势,在我们的手势识别系统中,利用光子强度数据来训练和测试网络,与同样的网 - 利用低分辨率热成像相机及脉冲神经网络与稀疏分割实现资源高效的姿势识别
使用低分辨率 (24 x 32) 热传感器,结合脉冲神经网络、稀疏分割和基于特征的手势分类,提出了一种新颖的手势识别方法。与标准 RGB 摄像头相比,该系统对光照变化不敏感,且价格显著低于以往文献中使用的高频雷达、飞行时间摄像头和高分辨率热 - GRLib:一个开源手势检测和识别的 Python 库
GRLib 是一个开源的 Python 库,能够检测和分类静态和动态手势。该库使用 RGB 相机的反馈图像,经过数据增强和传递给 MediaPipe Hands 进行手势识别,支持通过轨迹和关键帧提取来处理动态手势,并在三个多样的真实数据集 - EMGTFNet:用于手势识别的上肢表面肌电信号解码的模糊视觉 Transformer
我们提出了一种基于 Vision Transformer (ViT) 和模糊神经网络块 (Fuzzy Neural Block, FNB) 的 EMGTFNet 架构,用于通过表面肌电图 (surface electromyography, - 手势识别中的瞬态高密度肌电图的深度学习序列解码器与主体嵌入式迁移学习
使用 HD-sEMG 和深度学习来实现手势识别,通过主观内嵌结构和预知预培训的方法,在数据有限的情况下,相对于特定用户方法,取得了超过 13% 的平均准确率,为新用户减少了大量数据需求,提高了实用性。
- 基于迁移学习和深度集成学习的手势识别的两阶段方法
利用预训练的高性能深度神经网络模型在 HG14 数据集上进行手势识别,通过多个模型的集成学习技术,达到了 98.88% 的准确率,展示了深度集成学习技术在人机交互中的有效性及其在增强现实、虚拟现实和游戏技术等领域的潜在应用。
- 基于语音识别的工具传递中的动态手势特征人机适应
基于手势识别和动态动作识别的人机协作框架在 UR5e 机器人平台上展示出卓越的性能,提供了高效的工具传递,同时不显著干扰人类意图。
- ICCV设备端实时自定义手势识别
该研究论文提出了一个用户友好的框架,使用户能够自定义和部署自己的手势识别流程,包括使用预训练的单手嵌入模型进行微调,提供低代码解决方案用于训练和部署自定义手势识别模型,以及提供无代码的 Web 前端,最终得到的自定义手势识别可以在实时场景中 - ADDSL:在丹麦手语标注数据上的手势检测与手语识别
本文介绍了一个新的数据集,ADDSL,用于手势识别和识别手势字母或数字,使用此数据集训练的基于 YOLOv5 的目标检测器模型具有 92% 的准确率,比现有工作更有效和准确。
- SimplyMime: 手边的一种控制
SimplyMime 是一种基于手部手势识别和人机交互的系统,利用人工智能技术提供智能控制手段,同时采用手掌纹认证技术确保仅授权用户可以操作设备,该系统在多种基准数据集上经过大量测试和验证,具有极高的准确性和高度可靠的计算能力,值得所有需要 - Snapture -- 一种用于静态和动态手势识别的新型神经架构
本文提出了一种基于 Snapture 的手势识别系统,该系统可以同时学习静态手势和动态手势,以及一种分析手势动态特征的方法来调节静态通道。该系统在两个手势基准测试中相对于 CNNLSTM 基线表现出了优越性,并揭示了其在性能改进方面的潜力。
- ICCV设备端实时手势识别
提出了一个基于设备的实时手势识别系统,利用单个 RGB 相机检测一组预定义的静态手势,该系统包括手骨骼跟踪器和手势分类器,使用 MediaPipe Hands 作为手骨骼跟踪器的基础,在世界度量空间中添加了 3D 关键点的估计,并创建两个不 - 基于姿态的手势识别的双流神经网络
本研究提出了基于自注意力图卷积网络和 RBI-IndRNN 的双流神经网络,用于提取短期和长期时间信息,以实现手势识别。在 Dynamic Hand Gesture 数据集和 First-Person Hand Action 数据集上验证了 - 通过时空注意力构建手势识别的动态图
提出一种动态基于图的空间 - 时间注意力方法 (DG-STA),用于手势识别,其关键思想是从手骨架中首先构造一个全连接图,然后通过在空间和时间领域中进行自我注意机制自动学习节点特征和边,进一步提出利用关节位置的空间 - 时间线索以保证在挑战 - CVPR基于 SPD 流形学习的神经网络用于基于骨架的手势识别
该研究提出了一种基于 SPD 流形学习的神经网络,用于骨架手势识别,并在两个具有挑战性的数据集上实现最先进的准确性。
- AAAIGestARLite:一种基于指向手指的智能手机和视频透视耳机的设备内手势界面
我们提出了一种用于便携式可穿戴设备的新型轻量级手势识别框架,该框架由一系列最先进的深度学习模型驱动,能以实时性灵敏地识别手势,实现了 80%的分类准确度和仅 0.12 秒的平均延迟。
- CVPR运动融合框架:手势识别数据级融合策略
本文提出了一种数据层次的融合策略 Motion Fused Frames(MFFs),以将动作信息融合到静态图像中,从而更好地代表动作的时空状态。该策略可以作为任何深度学习架构的输入,具有很少的网络修改量,并在三个视频数据集上进行评估,取得