第一人称视角方法的演化:概述
本文提出一种基于注意力模型、注重注视点和视觉场景分析生成视频语义得分的方法,以加速重要片段并跳过重复片段的第一人称视频片段浏览。在公开的第一人称视频数据集上进行的实验评估表明,此方法能够有效提高视频片段搜索速度和准确性。
Jun, 2020
本研究的主要目的是在 FPV 环境下,对最新的视觉追踪算法进行系统性分析,以理解人 - 物互动。通过对大量数据进行分析,结果表明需要更多的研究来利用这一技术来提高 FPV 的效果。
Nov, 2020
本研究对第一人称视角(FPV)下的目标物追踪进行了系统性的研究和性能分析,使用了新的性能测量方法和追踪算法测试数据集 TREK-150,表明 FPV 下的物体追踪存在挑战性,需要进行更多的研究以促进 FPV 相关任务发展。
Aug, 2021
本文调查了多个已有的数据集与方法,致力于采用 'egocentric vision' 技术实现手部的定位、动作理解和人机交互,展示并提供了关于手部注释的突出数据集列表。
Dec, 2019
本研究提出了一种新颖的深度神经网络体系结构,通过半监督的方法,总结第一人称视频中的关键视空间信息,其中利用第三人称视频作为训练数据,并在实验中展示了这个模型的定性和定量评估。
Nov, 2017
该研究旨在使用头戴式相机捕获的视频,基于人的动作和视线方向,开发一种新的深度学习模型,能够在 First Person Vision(第一人称视角)环境下进行准确的行动识别,并在 EGTEA Gaze+ 数据集上超越了当前技术水平。
May, 2020
我们提出了一个新的任务,旨在预测在佩戴式摄像机拍摄的第一人称视频中被观察者的未来位置,我们将三个关键观察结果融入到多流卷积 - 解卷积体系结构的预测框架中,实验结果表明我们的方法在我们的新数据集以及公共社交互动数据集上是有效的。
Nov, 2017
本文提出了一种基于自恋的头部运动的自我搜索技术,能够在可穿戴相机拍摄的第一人称视角视频中识别自己,以解决由这种技术带来的隐私问题,并且该技术能够应用于隐私过滤、目标视频检索以及社交群聚等实际场景中。
Jun, 2016
本文提出了一种新的半孪生卷积神经网络架构,以解决第一人称和第三人称视频之间的人物层面的对应关系问题,在关注联合场景理解,物体追踪和活动识别方面有显着的性能提升。
Apr, 2017