本文提出了一种基于自恋的头部运动的自我搜索技术,能够在可穿戴相机拍摄的第一人称视角视频中识别自己,以解决由这种技术带来的隐私问题,并且该技术能够应用于隐私过滤、目标视频检索以及社交群聚等实际场景中。
Jun, 2016
本文提出了一种利用鸟瞰视角下与用户的距离和方向特征识别社交互动的算法,将相应的时空序列输入长短记忆循环神经网络进行分类,并在 3 万张照片的数据集上进行了实验验证,取得了良好的效果。
May, 2016
本研究提出了一种针对 egocentric(或 “穿戴式”)相机数据的视频摘要方法,通过使用区域线索和学习回归器,选择与相机佩戴者互动最多的重要对象和人,以生成紧凑的故事板摘要,并享有相对于现有显著性和摘要技术的巨大优势。
May, 2015
本研究旨在利用一种新的方法,即多态输入的注意力循环网络,来描述自我中心影像序列的故事情节,并发布了第一个自我中心影像序列描述数据集,该方法的表现优于传统的注意力编码器 - 解码器方法。
Apr, 2017
该研究旨在使用头戴式相机捕获的视频,基于人的动作和视线方向,开发一种新的深度学习模型,能够在 First Person Vision(第一人称视角)环境下进行准确的行动识别,并在 EGTEA Gaze+ 数据集上超越了当前技术水平。
May, 2020
本文提出了一种从自我视角视频中提取语义信息来汇总并稳定视频的方法,并介绍了一个带有多个语义标签的视频数据集和一种新的自我视角视频平滑评估度量标准。
Aug, 2017
该研究旨在研究在第一人称视角下,如何准确识别行为。为此,提出了一种新颖的特征轨迹表示方法,并且使用所提出的方法在公开数据集上实现了 11% 的性能提升,该方法可以识别出佩戴者的各种行为,且不需要分割手 / 物体或识别物体 / 手的姿态。
Apr, 2016
该论文介绍了一种使用设备集成传感器和身体佩戴相机的方法来预测用户在移动设备上的视觉注意力行为,并探讨了其在不同特征集下的性能和潜力。
Jan, 2018
本文提出了一种基于学习的方法,通过与另一个人的互动来估计身穿相机人的三维身体姿态,演示了我们的想法在多个领域的相关应用和视频实现。
Apr, 2019
本文主要研究如何利用佩戴式摄像头所获得的数据进行行为识别。研究发现,使用卷积神经网络进行自我视角识别可以开辟行为识别领域的新研究视角。
Jun, 2019