提出了一个骨架感知的多模式手语识别框架 (SAM-SLR),使用多种模态信息来提高识别率,并在 2021 年 Looking at People 大规模独立手语识别挑战赛中获得了最高性能。
Mar, 2021
该篇研究论文提出了一种基于骨架动态特征和多模态特征融合的新型骨骼感知多模态框架,以提高手语识别的准确率,并进行了三个 “孤立 SLR 数据集” 的实验验证,并且实现了最先进的 SLR 性能.
Oct, 2021
提出了一种基于人类骨骼运动的时空图卷积网络的手语识别方法,使用图来捕捉手语在二维空间和时间上的动态,并提供了一个新的 ASLLVD 人体骨架手语数据集以供未来的相关研究。
Jan, 2019
本研究提出了一种新的基于骨架的动作识别模型,包括空间推理网络(SRN)和时间堆叠学习网络(TSLN),SRN 通过残差图神经网络捕获每帧内的高级空间结构信息,而 TSLN 通过多个跳跃剪辑 LSTM 的组合模拟骨架序列的详细时间动态,最终实验结果表明与最先进的方法相比,该方法表现出更好的表现。
May, 2018
使用 TSSI 系统改进骨架模型在手语识别方面的效果。
Apr, 2023
通过提取身体、手部和面部关键点并将其编码为 2D 图像,本研究提出了一种孤立手语识别(ISLR)方法,通过卷积神经网络映射视觉和时间信息到手语标签,实验证明该方法在两个广为认可的巴西手语(LIBRAS)数据集上的性能指标超过了现有技术。此外,由于依赖于更简单的网络架构和仅使用 RGB 数据作为输入,本方法更准确、更高效且更易于训练。
Apr, 2024
该研究提出了一种用 Hierarchical Attention Network 和 Latent Space 实现连续手语识别的新型框架,该方法无需时间分割预处理、可以缩小语义差距,并在实验中得到了验证。
Jan, 2018
本文提出了一种新颖的姿态识别方法,该方法采用了图卷积网络和 BERT 模型分别捕捉视频中的空间和时间信息,并通过后期融合来识别手势,实验结果在常规数据集上获得了显著的准确率提升。
Dec, 2020
本文提出了使用全卷积网络 (FCN) 实现在线手语识别的方法,同时从仅具有句子级注释的弱注释视频序列中学习空间和时间特征,通过引入一个手语特征增强 (GFE) 模块来提高序列对齐学习的效果,实验表明该方法在连续手语识别上有效且在在线识别中表现出了较好的性能。
Jul, 2020
该研究探讨了自动手语识别的问题,提出了一种基于概率模型的手语分类方法,通过对具有 64 个类别和 3200 个样本的阿根廷手语数据集进行测试,证实了可以实现不考虑顺序的识别,并取得了 97% 的准确率。
Oct, 2023