通过三维引导循环一致性学习密集对应关系
通过使用循环一致性思想,引入循环对应损失(CCL)实现视角不变的密集描述符的学习,从而达到优于其他自监督方法且接近有监督方法的性能,无论是在关键点跟踪还是机器人抓取下游任务方面。
Jun, 2024
研究使用二进制前景掩码并经过合成几何变形的图像来训练卷积神经网络(CNN),以解决语义对应问题,提出了一种新的 CNN 体系结构(称为 SFNet),其实现了这一想法,并展示了在标准基准测试中明显优于现有技术的实验结果。
Nov, 2019
本研究针对两幅图像之间密集像素对应估计的挑战进行探讨,提出了一种基于粗到细的 CNN 框架,能够扩展光流方法的优势,解决大范围变换并提供密集和亚像素准确估计的问题,并在相对摄像机姿态估计问题上表现优异。
Oct, 2018
本文提出了一种深度学习框架,用于准确的视觉对应,并证明了其在几何和语义匹配中的有效性,提出了一种卷积空间变换器来模仿传统特征(如 SIFT)中的补丁归一化,广泛的 KITTI,PASCAL 和 CUB-2011 数据集的实验表明,与使用手工构建或学习特征的先前作品相比,我们的特征具有显着优势。
Jun, 2016
本研究介绍了一种基于卷积神经网络的密集对应关系匹配方法,使用邻域一致性匹配模式在两幅图像所有可能的对应关系的 4D 空间中鉴别一组具有空间一致性的对应关系。该方法不需要全局几何模型,只需要弱监督的成对图像匹配信息进行训练。最后,该方法在类别匹配和实例级匹配任务中均取得了最优结果。
Oct, 2018
本文研究了无监督深度图匹配,并应用于图像特征点匹配。与传统的有监督方法不同,我们的方法不需要关键点对之间的真实对应关系,而是通过强制同一物体类别图像之间的匹配一致性进行自我监督。由于匹配和一致性损失是离散的,不能直接用于学习,我们通过在组合求解器的黑盒微分结果的基础上构建方法来解决这个问题。这使得我们的方法非常灵活,可以与任意网络架构和组合求解器兼容。实验结果表明,我们的技术在无监督图匹配领域达到了最新的最先进水平。
Jul, 2023
本文提出了 SCNet,一种基于卷积神经网络的语义对应的几何合理模型,利用区域提议实现匹配原语,并明确将几何一致性纳入其损失函数中,该方法在多项基准测试中均表现优异。
May, 2017
该论文提出了一种自监督的深度表面变形方法,其中采用了循环一致性来定义物体组中的良好对应关系,并将其用作监督信号来训练神经网络。该方法在没有模板、假定近似等距变形或依赖于点对应监督的情况下运行,并成功地将其用于传输形状间的分割。该方法在 Shapenet 上表现优于当前同类方法,特别是在少量标注样本的情况下。
Jul, 2019
通过增加合成训练数据,使得含有 3D CAD 模型的深度卷积神经网络(DCNN)训练数据可以更好地适应目标领域,本文详细分析了在没有低级线索(纹理,姿态和背景)的情况下 DCNN 的学习能力,并表明我们的合成 DCNN 训练方法在几乎没有真实数据的情况下可以在 PASCAL VOC2007 数据集上获得更好的性能,并且可以在 Office 基准测试中的域偏移场景中提高性能。
Dec, 2014