一种在以自己为中心的恢复应用视频中有效且高效地检测手部的方法
通过语义聚类自动识别晚期视频中的主要抓握类型,并利用深度学习模型创建个性化手部分类系统,为研究和临床人员提供了一种灵活和有效的手部功能分析策略。
Mar, 2024
该论文研究了从第一人称视角获取图像和视频的发展趋势,采用图像识别和区域跟踪技术进行视觉场景中手的识别和动作的分类,表明使用区域兴趣描述视频的信息可以被依靠,来对与手有关的人体动作进行分类。
May, 2019
本研究探索了使用二维手部姿态和物体姿态信息实现以自我为中心的动作识别的可行性,并使用最先进的基于 Transformer 的方法分类序列,并取得了 94% 的验证结果,这突出了二维手部和物体姿态信息在动作识别任务中的潜力,并为基于 3D 的方法提供了有前途的替代方案。
Jun, 2023
通过探索 2D 手势姿态评估用于自我中心动作识别的领域,我们提出了两种新方法:EffHandNet 用于单手姿态估计和 EffHandEgoNet 用于自我视角,捕捉手部与物体之间的交互。同时,我们提出了一个从 2D 手部和物体姿态的坚固的动作识别架构。通过在 H2O 和 FPHA 数据集上的评估,我们的架构具有更快的推断时间,并且分别达到了 91.32% 和 94.43% 的精度,超越了包括基于 3D 的方法在内的最先进的技术。
Apr, 2024
本文研究了一种用于自主视角视频中手部分割的方法,通过使用 RefineNet 进行 fine-tune,得出了在具有挑战性的场景中更好的结果,并收集了两个新的数据集来支持实验结果。同时,本文展示了通过手部分割训练 CNN 模型可以提高手部活动识别的准确性。
Mar, 2018
本文介绍了可穿戴摄像机可以记录日常活动的人们的视角,介绍了如何对手进行完整的分割,处理手与手之间的遮挡问题,并说明了如何通过使用 Maxwell 角度和位置的分布进行左右手鉴别。实验结果表明,我们的方法显著改善了传统的背景 - 前景手部分割方法。
Jul, 2016
使用两个连续应用的卷积神经网络(CNN)对手部进行定位并回归三维关节位置,进而实现在复杂环境中移动自视角 RGB-D 相机下的实时、稳健和准确的手部姿态估计。
Apr, 2017
该研究旨在研究在第一人称视角下,如何准确识别行为。为此,提出了一种新颖的特征轨迹表示方法,并且使用所提出的方法在公开数据集上实现了 11% 的性能提升,该方法可以识别出佩戴者的各种行为,且不需要分割手 / 物体或识别物体 / 手的姿态。
Apr, 2016
通过视角来对分离人体和环境因素,提出了一种有关 Egocentric 视角的机器人任务的可行性的方法,并利用 Video Inpainting via Diffusion Model (VIDM)来提高 egocentric 视频修复质量,进一步使对于下游机器人任务的模型设计变得更容易。
May, 2023
本文提出一种基于深度传感器的、具有先验的手势识别系统,使用包含自我场景的光辉合成模型来生成训练数据,并在真实环境下进行测试。结果表明,该方法在单目 RGB-D 图像中的手部检测和姿态估计方面均具有最先进的性能。
Nov, 2014