通过自我监督学习并结合对真实世界视频和合成视频的特征学习,提出了一种针对像素级对应的特征学习方法,采用对抗性学习方案增强特征的泛化能力,并采用粗到细的框架追求高计算效率,在对应任务上的实验结果表明,该方法在准确度和效率方面均优于现有方法。
Aug, 2023
本文提出了一种利用自我监督方式从视频中学习可靠密集对应关系的方法,通过跟踪大规模图像区域和建立连续视频帧之间的像素级细粒度关联来实现。该方法利用共享的帧内亲和矩阵来建模两个任务之间的协同作用,在区域级别和像素级别同时建模视频帧之间的转换,从而在视觉对应任务中实现了优异的表现。
Sep, 2019
提出了一种基于图形的对象表示来消除姿态变化,实现自我监督的姿态对齐,同时还结合粗到细的监督和浅到深的子网络的提议的姿态不敏感限制,以逐步学习的方式鼓励网络产生区分性特征,已成功应用于三项流行的细粒度物体分类基准中,达到了最先进水平。
Mar, 2022
通过特征级别的数据增强和协方差预测网络,我们提出了一种改善细粒度图像识别的方法,可以有效区分细分类别,提高泛化性能。
Sep, 2023
研究使用二进制前景掩码并经过合成几何变形的图像来训练卷积神经网络(CNN),以解决语义对应问题,提出了一种新的 CNN 体系结构(称为 SFNet),其实现了这一想法,并展示了在标准基准测试中明显优于现有技术的实验结果。
Nov, 2019
本文提出了一种基于卷积神经网络和不同 iable soft inlier scoring 模块的语义对齐方法,该方法无需繁琐的手工标注就能实现对不同但具有语义相关性的图像进行参数学习,并从几何上一致的对应关系计算对齐质量,达到了基于多个标准基准的语义对齐的最先进表现。
Dec, 2017
通过无监督学习的方法探索语义对应关系估计。我们评估了几种最近提出的无监督方法,并在多个具有挑战性的数据集上使用标准化的评估协议进行全面评估。我们引入了一个新的诊断框架和一个更适合语义匹配任务的性能指标,并介绍了一种新的无监督的对应方法,其利用了预训练特征的强度,同时在训练期间鼓励更好的匹配。与当前最先进的方法相比,这导致了显着更好的匹配性能。
Jul, 2022
本文提出了 SCNet,一种基于卷积神经网络的语义对应的几何合理模型,利用区域提议实现匹配原语,并明确将几何一致性纳入其损失函数中,该方法在多项基准测试中均表现优异。
May, 2017
本文提出了一种适用于匹配视频中对应点的特征嵌入的自监督学习方法,其中使用自然的时空一致性训练指针模型,并通过引入信息瓶颈和循环模型等方式来解决跟踪器漂移等挑战,最终取得了在视频分割和关键点跟踪上的最佳效果。
May, 2019
自监督表征学习在提取图像特征方面取得了近期的进展,但在面对对称性和重复部分等具有挑战性的图像特征时仍存在限制。为了解决这些限制,本文提出一种新的语义对应估计方法,将有区分度的自监督特征与三维理解相结合,通过弱几何球面先验进行补充。与更复杂的三维流程相比,我们的模型仅需要弱视点信息,我们球面表示的简单性使我们能够在训练过程中注入信息丰富的几何先验。我们提出了一个更好地考虑重复部分和对称性误差的新评估指标。我们在具有挑战性的 SPair-71k 数据集上呈现结果,表明我们的方法能够在许多物体类别上区分对称视图和重复部分,并且还证明我们能够推广到 AwA 数据集上的未见类别。
Dec, 2023