基于时间对齐视频学习
本文提出一种学习视频帧临时嵌入的方法,以便进行复杂的视频分析,利用互联网上大量的未标记的视频数据,通过将帧与其所处的时间上下文相关联来学习视频帧的时间嵌入,并通过使用多分辨率采样和困难负样本的数据增广来显著提高所学嵌入的质量,证明嵌入可以提高多个视频任务的性能,例如在无约束的互联网视频中检索、分类和时间顺序恢复。
May, 2015
本文提出了一种基于自我监督学习的视频时序对齐表征学习方法,其通过训练神经网络使用时间循环一致损失(TCC)来找到多个视频之间在时间上的对应关系,从而得到每一帧的表征,可用于快速地对视频进行对齐和分类。该方法在少量监督数据和其他自监督方法上都有较好的表现,同时还可用于多种视频应用领域的数据同步和异常检测。
Apr, 2019
TCE是一种自监督学习方法,利用无标签视频数据的内在结构在嵌入空间中明确强制执行时间上的连贯性,以便从大量无标签视频数据中学习出稳健的表示,该方法经过了对多个数据集的评估,能够继续改进视频动作识别的性能。
Mar, 2020
本文讨论了跨视频提取视觉对应关系的任务,提出了一种使用交叉视频循环一致性来学习空间和时间对应关系的新方法,成功实现了语义相似的贴片在视频中的对应,并学习到对物体和动作状态敏感的表示。
Jul, 2020
本研究提出了一种新颖的自监督学习方法来学习对于动态运动变化有响应的视频表征,通过训练神经网络来区分不同的时间变换的视频序列,使得无需人工标注数据即可准确地识别视频中的不稳定运动并增强神经网络在小数据集上的训练。该方法经过实验证明,可显著提高UCF101和HMDB51上的动作识别的传递性能。
Jul, 2020
本文提出了一种针对同一过程(如人类动作)的时间序列(例如视频)的弱监督表征学习方法,通过对全局时间序列进行对齐,并利用对齐的隐变量跨序列对的全局时间顺序作为监督信号进行表征学习,通过最优序列对齐进行嵌入网络的训练。通过大量实验表明,该方法在动作分类、少样本学习和视频同步等任务中均比之前的方法性能有了明显提高。
May, 2021
该研究提出了一种方法来解决深度学习在处理视频时不能考虑时间顺序信息,或忽略动作顺序差异所带来的问题,通过优先考虑时间一致性(同时允许动作关系顺序差异),解决自我学习顺序动作表示学习的问题,并在多个数据集上取得最优效果。
Nov, 2021
本文提出了一种新颖的对比行动表示学习(CARL)框架,用于以自我监督的方式学习帧级行动表示,特别是针对长视频。该框架包括一个简单而高效的视频编码器,以及应用于一系列时空数据增强的新颖序列对比损失(SCL)。我们通过FineGym,PennAction和Pouring数据集的实验证明,该方法在下游的细粒度行动分类任务上表现出明显的优越性。 令人惊讶的是,即使没有对配对视频进行训练,我们的方法在视频对齐和细粒度帧检索任务上也表现出了出色的性能。
Mar, 2022
本文提出了一种时间对齐网络,能够对长期视频序列和关联文本句子进行处理,使用了一种新颖的共同训练方法来减少噪音并训练原始指导视频,应用于多个视频理解任务,包括文本-视频检索和弱监督视频动作分割等,获得了更好的性能。
Apr, 2022
该研究解决了视频分析中对稳健帧级嵌入的需求,提出了一种自监督的表示学习方法,侧重于时间视频序列的对齐。通过引入局部对齐对比损失(LAC),结合了可微局部对齐损失和对比损失,显著提升了模型在动作识别任务中的表现,展现了新的对齐方法的潜力。
Sep, 2024