EgoSampling:来自自我中心视频的宽视野超时跳转
该研究提出一种自适应帧采样技术 EgoSampling,采用能量最小化的方法来得到更稳定的快速前向视频,同时通过左右晃动的头部动作拍摄,形成近似立体声对。
Dec, 2014
该研究提出了一种新的自适应帧选择方法和平滑帧转换方法以加速第一人称视频并强调相关段落,从而避免视觉不连续性,实验表明我们的方法能够在更短的时间内保留尽可能多的相关信息和平滑度,并且我们还提供了一个新的 80 小时的多模态数据集,包含了记录者资料、帧场景、活动、互动和注意力的注释。
Feb, 2018
本文提出了一种将全景视频转换为普通视野追踪摄影以实现最佳观看体验的系统,在利用视觉显著性和语义来非均匀取样以生成追踪摄影 的同时,用户还可以选择自定义感兴趣的物体。通过比较现有技术的研究结果,我们验证该系统的有效性。
Mar, 2017
本研究提出 MIFF 快速转发方法,针对低成本高质量的个人可穿戴相机产生的第一人称视角视频难以观看等问题,通过用户学习过程平衡视觉流畅度和重要内容,结果表明该方法保留了超过 3 倍的语义内容,讨论了快进自我视角视频需要特殊的视频稳定技术。
Nov, 2017
本文提出一种基于注意力模型、注重注视点和视觉场景分析生成视频语义得分的方法,以加速重要片段并跳过重复片段的第一人称视频片段浏览。在公开的第一人称视频数据集上进行的实验评估表明,此方法能够有效提高视频片段搜索速度和准确性。
Jun, 2020
提出一种新的方法,可以在室内和室外等各种场景下,实时地通过佩戴在头盔或虚拟现实头戴式显示器上的轻量级鱼眼立体相机,使用生成式姿势估计和基于 ConvNet 的身体部位检测器,无需标记,从而捕捉全身运动。
Dec, 2016
本研究旨在通过估算自我运动或相机运动来应对大数据下的运动捕捉,并使用经过端到端训练的 CNN 提取来自动作的整个时间范围的特征,从而扩大网络的时间感知领域。
Aug, 2020
本文提出了一种基于自恋的头部运动的自我搜索技术,能够在可穿戴相机拍摄的第一人称视角视频中识别自己,以解决由这种技术带来的隐私问题,并且该技术能够应用于隐私过滤、目标视频检索以及社交群聚等实际场景中。
Jun, 2016