本文提出了一种利用自我监督方式从视频中学习可靠密集对应关系的方法,通过跟踪大规模图像区域和建立连续视频帧之间的像素级细粒度关联来实现。该方法利用共享的帧内亲和矩阵来建模两个任务之间的协同作用,在区域级别和像素级别同时建模视频帧之间的转换,从而在视觉对应任务中实现了优异的表现。
Sep, 2019
本文提出了一种自监督的方法,通过循环一致性来学习视觉对应关系,应用其学到的特征图表示可以在一系列视觉对应任务中取得较好的性能。
Mar, 2019
该论文提出了一种简单的自监督方法来学习从原始视频中获取图像匹配的表达方式,通过构建空间时间图来预测连接预测匹配,并通过回文构造的图优化表示方法。
Jun, 2020
本文提出了一种空间 - 时间自我监督学习方法,通过对无标注图像的对比学习来提取空间特征,并通过重构学习利用无标注视频中的时间线索增强特征,以在视频分析任务上取得比现有自我监督方法更好的表现,并进行了削减研究以验证两步设计以及蒸馏损失的有效性。
Sep, 2022
本研究旨在通过使用野外未标记视频进行自监督学习的视觉对应关系。我们的方法同时考虑了可靠对应估计的视频内部和视频间的表示关联。
Dec, 2020
通过开发一个统一的框架,其中同时建模跨帧密集对应以进行本地区分特征学习并嵌入对象级上下文进行目标掩码解码,从而使得能够直接从未标记的视频中学习执行基于掩码的连续分割,而不是依赖于基于像素的关联的廉价 “复制” 标签的非直接方法。
Mar, 2023
本研究提出了一种自监督学习方法,从未标记的视频中学习可靠的视觉对应关系。 所提出的方法将对应关系形式化为在联合空间 - 时间图中寻找路径的过程,并在此基础上利用循环一致性来识别图像中的动态对象,从而实现了中心 - 邻居对之间的潜在关联学习。实验结果表明,该方法在视频对象传播、部分传播和姿态关键点跟踪等各种视觉任务上均表现出色,并且优于某些针对特定任务设计的全监督算法。
Sep, 2021
通过自我监督学习并结合对真实世界视频和合成视频的特征学习,提出了一种针对像素级对应的特征学习方法,采用对抗性学习方案增强特征的泛化能力,并采用粗到细的框架追求高计算效率,在对应任务上的实验结果表明,该方法在准确度和效率方面均优于现有方法。
Aug, 2023
本文提出一种单一和原则性网络,用于联合学习立体匹配和流估计的时空对应关系,通过设计的几何连接作为临近时间内的立体对的无监督信号。结果表明,我们的方法对于 KITTI 基准数据集上的无监督深度和流估计都优于几种最先进的基线方法。
May, 2019
采用动态光流来监督静态图像的表示,通过学习嵌入像素以达到其光流向量之间的相似性,我们设计了一种无需手工标注的学习卷积神经图像表示的新方法,这个新方法优于以往的运用动态光流学习卷积神经网络的方法,并在语义分割等领域首屈一指。
Jul, 2018