- 用 MASt3R 在 3D 中实现图像匹配
通过在 DUSt3R 网络中引入新的头部,并训练密集局部特征以及附加匹配损失,我们改进了匹配能力,同时保持其鲁棒性,取得了显著的结果改进,击败了现有方法,并在多个匹配任务中实现了 30%的绝对改善。
- CVPROmniGlue: 基于基础模型引导的通用特征匹配
OmniGlue 是第一个以广义化为核心原则设计的可学习图像匹配器,它利用视觉基础模型的广泛知识来指导特征匹配过程,提高对未知图像域的泛化能力,并且通过引入新颖的关键点位置引导的注意机制,分离空间和外观信息,从而实现了出色的匹配描述符。
- TP3M: 基于 Transformer 的伪 3D 图像匹配带参考
本论文提出了一种基于 Transformer 的伪三维图像匹配方法,通过引入参考图像将源图像的 2D 特征升级为 3D 特征,并通过由粗到细的三维匹配与目标图像的 2D 特征进行匹配,从而提高了在具有大视角或光照变化或低纹理的场景中的匹配性 - HCPM: 高效无检测器匹配的分层候选筛选
基于深度学习的图像匹配方法在计算机视觉中发挥了重要作用,但往往需要大量的计算资源。为了解决这个问题,我们提出了一种高效且无需检测器的局部特征匹配方法 HCPM,通过分层修剪来优化匹配流程。与依赖于粗略级别候选集进行匹配的最新无检测器方法不同 - ICLR从互联网视频中学习通用图像匹配器的方法
提出了 GIM:一个基于互联网视频的自我训练框架,通过结合标准领域特定数据集和互补匹配方法,在新的视频中创建密集标签,并通过强化增强的传播数据来训练单一通用模型,能够提高跨领域图像匹配的零样本性能。同时,引入了 ZEB 作为图像匹配的首个零 - 基于本地自适应聚类的自动视觉识别中的图像匹配
本文介绍了一种基于计算机视觉的视觉辅助识别系统,通过图像匹配在监控视频中实现实时自动设备标注。该系统采用 ORB 算法提取图像特征和 GMS 算法去除错误匹配点,利用局部自适应聚类(LAC)方法来增强标签定位,该方法通过聚类中心对匹配模板进 - MatchDet:图像匹配与目标检测的协同框架
本文提出了一种名为 MatchDet 的协作框架,用于图像匹配和物体检测,通过三个新颖模块实现两个任务的协作学习,包括权重空间注意力模块(WSAM)用于检测器,加权注意力模块(WAM)和框过滤器用于匹配器。实验证明我们的方法在新的基准数据集 - 利用放射维度特征分析进行自动 MRI 关键点检测:优化图形应用
利用基于放射学特征的关键点检测方法,本研究证明了在图神经网络中的关键点在改进配准过程中的解剖学意义,并展示了图神经网络在图像匹配方面的卓越性能,为拓展图神经网络在图像分类、分割和配准等多个应用领域铺平了道路。
- LGFCTR: 图像匹配的局部和全局特征卷积变换器
通过引入卷积变换器,本研究提出了一种捕捉图像匹配的局部环境和全局结构的新型图像匹配方法,该方法在各种基准测试中取得了卓越的性能。
- Occ²Net: 基于三维占空比估计的鲁棒图像匹配算法应用于遮挡区域
本文提出 Occ$^2$Net,一种新颖的图像匹配方法,利用 3D 占用来建模遮挡关系,并推断出遮挡区域中的匹配点。通过在 Occupancy Estimation (OE) 模块中编码归纳偏差,简化了多视图一致的 3D 表示的引导启动,以 - TopicFM +:提升主题辅助特征匹配的准确性和效率
本研究提出了一种基于主题建模策略来捕获图像高层次上下文信息的新型图像匹配方法,并使用池化和合并注意力模块来提高特征匹配的效率,能够在节约计算成本的同时,在具有挑战性的情况下,与最先进的方法相比保持更高的图像匹配精度。
- 使用移动传感器进行长期视觉定位
本研究提出使用手机的 GPS、罗盘和重力传感器等附加传感器来解决室外场景下相机定位的挑战性问题,通过开发出直接的二维 - 三维匹配网络和采集公开数据集等手段,证明了该方法的有效性。
- CVPRFeatureBooster: 用轻量级神经网络增强特征描述子
我们介绍了一种轻量级网络,用于提高同一图像中关键点描述符的准确性,并在图像匹配、视觉定位和结构运动任务中进行评估,结果显示我们的方法显著提高了每项任务的性能,特别是在具有挑战性的情况下,例如大的照明变化或重复图案。
- ECCV基于粗细磨合精化的高效对应关系寻找
本文提出了一种名为 Efficient Correspondence Transformer (ECO-TR) 的高效对应变换器,通过一个由多个 transformer blocks 组成的网络,以从粗到细的方式找到对应关系,并提出了一种自 - CVPRTransforMatcher: 用于语义对应的匹配 - 匹配注意力
本文介绍了基于 Transformer 网络的图像语义匹配学习器 TransforMatcher,通过全局匹配 - 匹配注意力和动态细化,利用轻量级注意力架构实现匹配处理和基于多层次特征的多通道相关图的精细化处理,以达到确切的匹配定位和 S - ICCV视角不变的稠密匹配用于视觉地理定位
本文提出了一种新的基于密集局部特征的图像匹配方法,名为 GeoWarp,旨在解决视觉地理定位中的视角不变性问题,并通过新的自监督损失和两种新的弱监督损失进行训练。实验证明,GeoWarp 可以提高先进检索架构的准确性。
- ICCV参数优化对于传统和基于学习的图像匹配方法的影响
通过对经典和基于学习的方法进行比较,本研究发现,在最佳性能下,SIFT 方法的匹配精度接近于 SuperGlue 的性能,并且能够在 1 像素和 2 像素阈值下胜过 SuperGlue 的 MMA;此外, DFH 方法只使用预训练的 VGG - CVPRDFM: 深度特征匹配性能基准
本文提出了一种新颖的图像匹配方法,利用预先训练的 VGG 神经网络提取图像特征,在首次较好的几何转换估计后,再以分层的方式重复运用该方法,达到良好的本地化和匹配性能。该算法在 Hpatches 数据集上达到了 0.57 和 0.80 的平均 - TransMatcher:一种利用 Transformer 实现深度图像匹配的通用人员重识别方法
本文认为转换器由于缺乏图像之间的关注而不适用于图像匹配,因此提出了一种简化的解码器,称为 TransMatcher,它在一些流行的数据集中实现了最先进的表现以进行泛化人员再识别。
- 尺度调整下的图像匹配
本文提出了一种利用尺度空间和几何模型来匹配不同分辨率图像的方法,并使用具有光度不变性和旋转不变性的描述子进行匹配,实验表明该方法可用于高达 6 倍的尺度变化。