提升上限:动态视角切换的无冲突局部特征匹配
提出了一种新颖的宽基线匹配算法MODS(Matching On Demand with view Synthesis),通过渐进式使用更加耗时的特征检测器和按需生成合成图像,解决了更广泛范围的宽基线问题,并在多个数据集以及新的具有几何挑战的宽基线问题上得到验证。
Mar, 2015
该研究论文提出一种嵌入完整视觉流水线中的特征检测器训练方法,通过强化学习的原则克服关键点选择和描述符匹配的离散性,并通过实验表明该方法可以提高基于学习的特征检测器在任务中的准确性。
Dec, 2019
本文介绍了一个用于本地特征与鲁棒估计算法的全面基准测试,旨在通过相机位姿的准确性作为主要指标。我们的管道模块化结构允许易于集成、配置和组合不同的方法和启发式算法。同时我们展示了如何嵌入数十种流行算法进行评估,进而表明经典算法在适当的设置下可能仍能胜过认为的最前沿机器学习研究。此外,我们实验发现一些意想不到的图像匹配解决方案的性质,这有助于改进它们的性能,无论是算法还是机器学习方法。我们提供了一个易于使用和灵活的框架,用于衡量本地特征与鲁棒估计方法,同时与顶级方法进行比较,构建了一个基础性的图像匹配挑战平台。
Mar, 2020
本文提出了一种新的局部图像特征匹配方法,使用Transformer的自注意层和交叉注意层得出特征描述符,在低纹理区域中实现稠密匹配,在室内和室外数据集上表现优异,成为视觉定位的新的state-of-the-art方法。
Apr, 2021
本文提出了一种自适应的、采用了诸多优点的区域引导 Transformer 网络(ASTR)来解决图像的局部特征匹配问题,同时考虑了局部一致性和尺度变化的因素,实验结果证明 ASTR 在五个标准基准数据集上的表现超越了现有最先进的方法。
Mar, 2023
该研究提出了一种名为SAM的新模型,应用注意力分组指导场景感知特征匹配,处理具有大视角和光照变化等挑战性场景。通过引入感知感觉的分组指导,该模型不仅更准确和稳健,而且更易解释,实现了最先进的性能。
Aug, 2023
我们提出了一种新的方法来高效地生成图像间的半稠密匹配。先前的无需检测器的匹配器LoFTR在处理大视角变化和贫纹理场景方面表现出卓越的匹配能力,但效率较低。我们重新审视其设计选择,并对效率和准确性进行多个改进。通过聚合注意力机制和自适应令牌选择,我们避免了在整个特征图上执行变换器的冗余操作。此外,我们发现LoFTR的细粒度相关模块存在空间差异,这对匹配准确性不利。我们提出了一种新颖的两阶段相关层,以实现准确的亚像素对应关系。我们的优化模型比LoFTR快2.5倍,甚至可以超过最先进的高效稀疏匹配流水线SuperPoint + LightGlue。此外,广泛的实验表明,我们的方法相比竞争对手的半稠密匹配器可以实现更高的准确性,并带来可观的效率优势。这为大规模或对延迟敏感的应用,如图像检索和三维重建,开辟了令人兴奋的前景。
Mar, 2024
基于深度学习的图像匹配方法在计算机视觉中发挥了重要作用,但往往需要大量的计算资源。为了解决这个问题,我们提出了一种高效且无需检测器的局部特征匹配方法HCPM,通过分层修剪来优化匹配流程。与依赖于粗略级别候选集进行匹配的最新无检测器方法不同,HCPM仅集中在一小部分有信息量的候选项上,从而减少计算要求并提高匹配效率。该方法包括自剪枝阶段以选择可靠的候选项,以及在粗略级别上识别相关补丁的交互式剪枝阶段。我们的结果表明,HCPM在速度和高准确性方面显著超越现有方法。发布后,源代码将可供使用。
Mar, 2024
本研究解决了图像匹配中的特征互动多余和尺度差异问题。提出的PRISM方法通过引入多尺度修剪模块(MPM)和尺度感知动态修剪注意力(SADPA),有效提高了不相关特征的修剪和不同尺度信息的聚合。实验结果显示,该方法在多个评估基准和下游任务上表现出色,具有较强的匹配性能和泛化能力。
Aug, 2024