通过密集像素匹配进行几何图像对应验证
本研究针对两幅图像之间密集像素对应估计的挑战进行探讨,提出了一种基于粗到细的 CNN 框架,能够扩展光流方法的优势,解决大范围变换并提供密集和亚像素准确估计的问题,并在相对摄像机姿态估计问题上表现优异。
Oct, 2018
本文提出了一种深度学习框架,用于准确的视觉对应,并证明了其在几何和语义匹配中的有效性,提出了一种卷积空间变换器来模仿传统特征(如 SIFT)中的补丁归一化,广泛的 KITTI,PASCAL 和 CUB-2011 数据集的实验表明,与使用手工构建或学习特征的先前作品相比,我们的特征具有显着优势。
Jun, 2016
本研究提出了一种名为 Correlation Verification Networks (CVNet) 的图像检索网络,包括深度堆叠的 4D 卷积层,以及横跨多个尺度的特征金字塔和特征相关结构,并使用课程学习与硬负采样和 “捉迷藏” 策略处理困难样本,其表现优于现有方法 (+12.6% in mAP on ROxford-Hard+1M set)。
Apr, 2022
本研究介绍了一种基于卷积神经网络的密集对应关系匹配方法,使用邻域一致性匹配模式在两幅图像所有可能的对应关系的 4D 空间中鉴别一组具有空间一致性的对应关系。该方法不需要全局几何模型,只需要弱监督的成对图像匹配信息进行训练。最后,该方法在类别匹配和实例级匹配任务中均取得了最优结果。
Oct, 2018
本论文提出了一种实用的建立图像间稠密一一对应的方法,利用像素的上下文信息估计本地尺度,并使用三种方法在整个图像中保持比例不变特征提取,有效地解决了局部尺度不同的问题,实现了不同图像之间的准确的稠密对应,且计算成本较小。
Jun, 2014
本文提出利用跨实例视觉一致性作为监督信息,通过建立一个包含 4 个环(4-cycle)的人工数据集提高深度学习在实现物体实例间的稠密视觉对应中的表现,并在测试阶段显示出优于先前相关任务的最新成果。
Apr, 2016
本研究提出了一种多图像匹配方法以估计多个图像之间的语义对应关系,并且利用稀疏可靠特征匹配而非优化所有成对对应关系,同时还提出低秩约束来确保整个图像集上的特征一致性。该方法在多图匹配和语义流基准测试中表现优异,同时在不使用任何注释的情况下对重建对象类模型和发现对象类地标具有适用性。
Nov, 2017
本文提出了 SCNet,一种基于卷积神经网络的语义对应的几何合理模型,利用区域提议实现匹配原语,并明确将几何一致性纳入其损失函数中,该方法在多项基准测试中均表现优异。
May, 2017
通过在多个尺度上迭代地探索几何相似性,并使用一种额外的不确定性估计模块进行稀疏化,我们提出了一种名为 RGM(Robust Generalist Matching)的深度模型,用于稀疏和密集匹配。通过生成具有较大间隔的光流监督,我们构建了一个包含稀疏对应关系真值的新的大规模数据集,从而缩小了合成训练样本和真实场景之间的差距。通过在大型混合数据上以两阶段方式学习匹配和不确定性估计,我们显著提高了我们所提出的 RGM 模型的泛化能力。在多个数据集上实现了零样本匹配和下游几何估计的卓越性能,优于先前的方法很多。
Oct, 2023