Ego2Top: Egocentric 与仰角视图视频的观众匹配
本研究旨在利用一种新的方法,即多态输入的注意力循环网络,来描述自我中心影像序列的故事情节,并发布了第一个自我中心影像序列描述数据集,该方法的表现优于传统的注意力编码器 - 解码器方法。
Apr, 2017
本文提出了一种使用基于第一人称视角拍摄的视频学习过程的框架,该框架可以在多个视频之间识别和利用关键步骤之间的时间对应关系,从而对过程进行学习。通过对两个基准数据集的实验,证明这一框架的性能优于现有的同类方法。此外,本文还提出了一个用于使用第一人称视角拍摄的视频进行过程学习的数据集。
Jul, 2022
该研究旨在研究在第一人称视角下,如何准确识别行为。为此,提出了一种新颖的特征轨迹表示方法,并且使用所提出的方法在公开数据集上实现了 11% 的性能提升,该方法可以识别出佩戴者的各种行为,且不需要分割手 / 物体或识别物体 / 手的姿态。
Apr, 2016
本文提出了一种 AE2 的自我监督嵌入方法,专门用于从 Ego-Exo 上下文的视角中学习不变的微观动作特征,并且在细粒度的视频理解任务中均表现出优异的性能。
Jun, 2023
提出了一种用于稠密视频字幕的跨视图知识传递的新型基准,从具有外视图的网页教学视频调整模型以适应内视图领域。
Nov, 2023
研究探讨外心 - 内心跨视角转换,提出一种名为 Exo2Ego 的生成框架,将转换过程分解为高层次结构转换和基于扩散的像素级幻觉,为未来进一步的发展提供了一个综合的外心 - 内心跨视角转换基准,并通过实验证实了 Exo2Ego 在生成仿真质量和泛化能力方面优于其他基准。
Mar, 2024
从第一人称视角的视频中理解人类行为面临着重要挑战。本文提出了 EgoInstructor 模型,它能够自动检索语义相关的第三人称指导视频,以增强第一人称视频的视频字幕生成。通过对不同规模的第一人称和第三人称数据集进行自动配对来训练跨视角检索模块,并通过新颖的 EgoExoNCE 损失函数将第一人称和第三人称视频特征与描述相似行为的共享文本特征对齐。通过大量实验证明,跨视角检索模块在七个基准上表现出优越性能。借助第三人称视频作为参考,EgoInstructor 在第一人称视频字幕生成方面展现了显著的改进。
Jan, 2024
本文提出使用大规模第三人称视频数据集进行预训练的以自我为中心的视频模型方法,通过在第三人称视频中发现预测自我特定属性的潜在信号,并将其作为知识蒸馏损失融入模型预训练中,在精细调节进行自我中心的活动识别时表现出最佳表现,取得 Charades-Ego 和 EPIC-Kitchens-100 的最新成果。
Apr, 2021
本篇论文提出了一种基于 Bi-directional Spatial Temporal Attention Fusion Generative Adversarial Network(STA-GAN)的方法,通过多阶段处理,将 Exocentric view 视频序列转换为 Egocentric 视角,通过在时空注意力融合模块和双重鉴别器的作用下产生高质量的合成视频。在 Side2Ego 和 Top2Ego 数据集上的实验证明,该方法优于现有方法。
Jul, 2021