该论文研究了从第一人称视角获取图像和视频的发展趋势,采用图像识别和区域跟踪技术进行视觉场景中手的识别和动作的分类,表明使用区域兴趣描述视频的信息可以被依靠,来对与手有关的人体动作进行分类。
May, 2019
本文介绍了可穿戴摄像机可以记录日常活动的人们的视角,介绍了如何对手进行完整的分割,处理手与手之间的遮挡问题,并说明了如何通过使用 Maxwell 角度和位置的分布进行左右手鉴别。实验结果表明,我们的方法显著改善了传统的背景 - 前景手部分割方法。
Jul, 2016
使用第一人称视角设备拍摄的图像、视频和传感器数据来实现自我的视场定位,并进行图像和视频匹配,最后用于增强现实、事件理解和社交交互研究。
Oct, 2015
该研究旨在研究在第一人称视角下,如何准确识别行为。为此,提出了一种新颖的特征轨迹表示方法,并且使用所提出的方法在公开数据集上实现了 11% 的性能提升,该方法可以识别出佩戴者的各种行为,且不需要分割手 / 物体或识别物体 / 手的姿态。
Apr, 2016
通过探索 2D 手势姿态评估用于自我中心动作识别的领域,我们提出了两种新方法:EffHandNet 用于单手姿态估计和 EffHandEgoNet 用于自我视角,捕捉手部与物体之间的交互。同时,我们提出了一个从 2D 手部和物体姿态的坚固的动作识别架构。通过在 H2O 和 FPHA 数据集上的评估,我们的架构具有更快的推断时间,并且分别达到了 91.32% 和 94.43% 的精度,超越了包括基于 3D 的方法在内的最先进的技术。
Apr, 2024
利用第一人称视角的环绕视觉设备,改进和增强工业使用场景中的数据采集、注释、标记和下游应用,为传统工业机器视觉工作流提供补充。
Jun, 2024
本文主要研究如何利用佩戴式摄像头所获得的数据进行行为识别。研究发现,使用卷积神经网络进行自我视角识别可以开辟行为识别领域的新研究视角。
Jun, 2019
通过观察手在自然野外环境下的视频,本文致力于实现交互对象的理解,成功地应用这一基本原则于 EPIC-KITCHENS 数据集,从而纯粹通过观察手在自我中心视角的视频中学习状态敏感特征和对象特性。
Dec, 2021
本研究发现相较于全局第三人称视角,手心视角可以提高物理操作的训练效率和泛化能力,并适用于各种算法、实验环境和分布转变。
Mar, 2022
通过分析 3D 手 - 物体重建任务,我们展示了针对以自我为中心相机的畸变、采用高容量转换器来学习复杂的手 - 物体交互以及融合来自不同视角的预测等方法的有效性,并揭示了最新方法难以解决的快速手部运动、窄视角下的物体重建以及两只手和物体之间的近距离接触等具有挑战性的场景。我们的工作将丰富该领域的知识基础,并促进未来关于以自我为中心手 - 物体交互的研究。
Mar, 2024