无监督的时间数据特征学习
本文研究在没有监督训练下在时间上连续的视频数据中进行无监督特征学习的方法,主要包含自编码器、时间和稀疏性正则化、缓慢特征学习和度量学习,最终得到一个更具有时间和语义一致性的度量方法。
Dec, 2014
本文提出了 “稳态特征分析” 这一新的方法,通过在未标记的序列视频中训练卷积神经网络,利用各种数据集证明本方法在目标、场景和动作识别等方面的有效性,且其特征甚至可以超过传统的监督式预训练方法。
Jun, 2015
本研究介绍了一种从未标记的视频中进行无监督学习的新方法,通过引入一种面向物体的时间相干性方法来促进学习具有相似表征的物体,并在多个基准数据集上展示了与竞争无监督方法相比显著的准确度提高。
Dec, 2016
本文提出了一种端到端可训练的深度学习模型,利用时间信息来利用易于获取的未标记数据,从而解决了视频分割中标签稀缺的问题。实验结果表明,该模型能够显著优于基线方法和逐帧图像分割。
Aug, 2019
该论文提出了一种从视频的原始时空信号中学习视觉表示的方法,通过无监督的顺序验证任务,即确定来自视频的帧序列是否按照正确的时间顺序排列,学习卷积神经网络 (CNN) 的强大视觉表示,其结果显示出该方法在捕捉人类姿势等在时间上变化的信息方面具有敏感性,并可用于姿势估计和行动识别。
Mar, 2016
本文提出了一种空间 - 时间自我监督学习方法,通过对无标注图像的对比学习来提取空间特征,并通过重构学习利用无标注视频中的时间线索增强特征,以在视频分析任务上取得比现有自我监督方法更好的表现,并进行了削减研究以验证两步设计以及蒸馏损失的有效性。
Sep, 2022
通过学习生成模型的规则运动模式,提出两种基于自动编码器的无监督方法来感知视频序列中有意义的活动,并在定量和定性方面进行测试,表明其在异常检测数据集上具有竞争性表现。
Apr, 2016
本文提出了一种基于无监督学习、自主学习特征的物体中心学习方法,以及如何使用时间特征相似性损失来发现运动目标,并在视频数据集上取得了最先进的表现。
Jun, 2023
本文提出一种基于卷积 LSTM 自编码器的音频预测器用于无监督特征提取,并给出了一种自编码器的训练方法,通过放大事件相似性得到独特的特征。与标准方法相比,使用此方法训练的音频预测器提取的特征在分类器或聚类方面显示出 13%或 36%的改进结果。
Dec, 2017
本文提出一种学习视频帧临时嵌入的方法,以便进行复杂的视频分析,利用互联网上大量的未标记的视频数据,通过将帧与其所处的时间上下文相关联来学习视频帧的时间嵌入,并通过使用多分辨率采样和困难负样本的数据增广来显著提高所学嵌入的质量,证明嵌入可以提高多个视频任务的性能,例如在无约束的互联网视频中检索、分类和时间顺序恢复。
May, 2015