关于将自心视觉应用于工业场景的研究
本文调查了多个已有的数据集与方法,致力于采用 'egocentric vision' 技术实现手部的定位、动作理解和人机交互,展示并提供了关于手部注释的突出数据集列表。
Dec, 2019
对于可以整合到日常生活中的可穿戴计算机、外置摄像头和数字叠加技术等未来的先知性研究,本文通过以人物为基础的故事来描绘未来,并提供了之前定义的研究任务与未来之间的映射,对每个任务进行了调研,包括开创性的作品、最新技术方法和可用数据集,然后反思了目前技术的局限,最后提出了为了实现始终开启、个性化和增强式的自我中心视觉的未来研究的建议。
Aug, 2023
本研究旨在利用一种新的方法,即多态输入的注意力循环网络,来描述自我中心影像序列的故事情节,并发布了第一个自我中心影像序列描述数据集,该方法的表现优于传统的注意力编码器 - 解码器方法。
Apr, 2017
研究以人为中心的方法来补充计算机视觉中心方法,结合雌性主义认识论与人类的视角构建 “Egocentric 认识论”,促进人工智能技术与人文关怀的结合。
Jun, 2023
该论文研究了从第一人称视角获取图像和视频的发展趋势,采用图像识别和区域跟踪技术进行视觉场景中手的识别和动作的分类,表明使用区域兴趣描述视频的信息可以被依靠,来对与手有关的人体动作进行分类。
May, 2019
该研究旨在从自我中心视角预测人的物体操纵行为的目标位置。他们提出了一个包含 RGB-D 和 IMU 流的大型多模态数据集,并设计了使用递归神经网络的基线方法,并进行了各种消融研究以验证其有效性,从而证明该新任务值得进一步学习。
Mar, 2022
提出了一种基于深度学习的实时方法,利用相机 SLAM 和身体图像,同时计算出头部姿态、身体姿态和前景 / 背景分离,并引入一定的几何一致性限制,用于从佩戴设备的围绕视野中估计身体姿态。
Apr, 2021
本文介绍了利用生物学方法实现高效自我中心感知的持续性工作,将哺乳动物视网膜的空间变体成像结构与深度学习方法相结合,在控制眼动眼镜的凝视位置的情况下,我们演示了将图像预处理为因子 3 的 DCNN 输入,减少必需训练的时期并在 26,000 多个物体的图像库上训练和验证系统时可获得超过 98% 的分类准确率。
Sep, 2018