本文介绍了一种使用大量未标记数据进行无监督学习的方法,通过使用数十万个未标记的 web 视频作为数据集,设计了一个具有排名损失函数的 Siamese-Triplet 网络,用于深度卷积神经网络的无监督学习,可在不使用 ImageNet 的情况下,获得 52% 的 mAP 的性能,并展示了此非监督网络在其它任务中表现出竞争性。
May, 2015
提出了一种自监督学习的方法,可以从多个视角拍摄的未标记视频中学习表征和机器人行为,能够用于机器人模仿人类的对象交互和身体姿势,训练该模型使用度量学习损失,使该模型能够发现在不同视角下发生变化但在时间域内不发生变化的属性,并可在强化学习算法中用作奖励函数。
Apr, 2017
本文介绍一种可扩展和强健的非线性时间视频对齐方法,该方法利用了视频本身的本质,能够在没有手动标签的情况下对月份间隔的数据进行视频对齐,并能用于计算机图形学和视觉领域的广泛应用。
Oct, 2016
本研究提出了使用视频自然增广的无标签视频学习方法,可以有效地提取单个图像的表示,并可用于各种时间和非时间任务中。
Mar, 2020
本文提出了一种半监督学习框架,为无标签图像对增加循环一致性限制,在监督丢失和无监督训练中实现了最先进的语义匹配性能。
Jan, 2019
该论文提出了一种从视频的原始时空信号中学习视觉表示的方法,通过无监督的顺序验证任务,即确定来自视频的帧序列是否按照正确的时间顺序排列,学习卷积神经网络 (CNN) 的强大视觉表示,其结果显示出该方法在捕捉人类姿势等在时间上变化的信息方面具有敏感性,并可用于姿势估计和行动识别。
Mar, 2016
该论文提出了一个从多个视角捕捉的无标注视频演示中学习视觉表示的框架,优化了最近提出的自监督学习算法,应用对比学习来增强与任务相关的信息和抑制特征嵌入中的无关信息,验证了所提出的方法在模拟几种机器人任务,包括 pick and place 任务中的应用,评估了学习表示的三个指标:视点对齐,阶段分类和强化学习,在所有情况下,结果都表明与现有方法相比,该方法水平更高,而且训练轮数更少。
Jan, 2022
本文介绍了一种基于无监督学习的视觉特征提取方法,采用运动分割技术自动从视频中得到图像分割信息进行卷积神经网络训练,结果在涉及少量目标训练样本的场景下显著优于现有无监督学习方法。
Dec, 2016
本文提出了一种无监督学习 CNNs 的方法,通过从视频帧中提取面孔对来获得受监督的训练数据并获得比手工制作特征和最先进的深度网络更高的低分辨率验证准确性,表明开发适用于姿势和光线变化的人脸验证模型是可行的。
Mar, 2018
探索了音视频流之间对应关系,并提出了利用该信息实现的自我监督视听学习任务,结果表明该方法成功解决了问题,并展现出良好的视听表征,可以将其应用于声音分类、物体定位和细粒度识别任务。
May, 2017