该研究旨在探讨基于无监督学习的视频数据特征学习,利用自编码器技术和慢特征学习,提出一种更为时空连贯、语义更为相似的度量标准。
Apr, 2015
本文研究在没有监督训练下在时间上连续的视频数据中进行无监督特征学习的方法,主要包含自编码器、时间和稀疏性正则化、缓慢特征学习和度量学习,最终得到一个更具有时间和语义一致性的度量方法。
Dec, 2014
本研究介绍了一种从未标记的视频中进行无监督学习的新方法,通过引入一种面向物体的时间相干性方法来促进学习具有相似表征的物体,并在多个基准数据集上展示了与竞争无监督方法相比显著的准确度提高。
Dec, 2016
该论文提出了一种基于层次特征学习的视觉目标跟踪方法,通过使用两层卷积神经网络实现对多样化运动模式的特征离线学习,并通过域自适应模块实现对具体目标的个性化在线特征调整,提高了在复杂运动转换和外观变化情况下的视觉目标跟踪性能。
Nov, 2015
本研究提出一种基于复数不变表示和卷积自编码器的视觉跟踪方法,该方法采用粒子滤波器框架进行实时跟踪,并在多个挑战性基准序列上表现出色。
Apr, 2016
本文提出了一种基于无监督学习、自主学习特征的物体中心学习方法,以及如何使用时间特征相似性损失来发现运动目标,并在视频数据集上取得了最先进的表现。
Jun, 2023
本文介绍了一种基于无监督学习的视觉特征提取方法,采用运动分割技术自动从视频中得到图像分割信息进行卷积神经网络训练,结果在涉及少量目标训练样本的场景下显著优于现有无监督学习方法。
本文提出一种学习视频帧临时嵌入的方法,以便进行复杂的视频分析,利用互联网上大量的未标记的视频数据,通过将帧与其所处的时间上下文相关联来学习视频帧的时间嵌入,并通过使用多分辨率采样和困难负样本的数据增广来显著提高所学嵌入的质量,证明嵌入可以提高多个视频任务的性能,例如在无约束的互联网视频中检索、分类和时间顺序恢复。
May, 2015
该论文提出了一种从视频的原始时空信号中学习视觉表示的方法,通过无监督的顺序验证任务,即确定来自视频的帧序列是否按照正确的时间顺序排列,学习卷积神经网络 (CNN) 的强大视觉表示,其结果显示出该方法在捕捉人类姿势等在时间上变化的信息方面具有敏感性,并可用于姿势估计和行动识别。
Mar, 2016
本研究提出了一种新颖的自监督学习方法来学习对于动态运动变化有响应的视频表征,通过训练神经网络来区分不同的时间变换的视频序列,使得无需人工标注数据即可准确地识别视频中的不稳定运动并增强神经网络在小数据集上的训练。该方法经过实验证明,可显著提高 UCF101 和 HMDB51 上的动作识别的传递性能。
Jul, 2020