自适应 Span Transformer 技术的无检测匹配图像方案 ASpanFormer
本文提出了一种新的层次化提取和匹配变形器 MatchFormer 来提高局部特征匹配的效率和鲁棒性,该方法结合自注意力和跨注意力在多尺度特征的层次化架构上提高匹配鲁棒性,并在室内姿势评估、室外姿势评估、单应性评估和图像匹配检测四个基准测试中均取得 state-of-the-art 的结果。
Mar, 2022
本文提出了一种新的有效的锚匹配转换器(AMatFormer)用于特征匹配问题,以在一些锚点特征上进行自 / 交叉注意,进而学习所有基本特征的表示,并采用共享的 FFN 模块将两个图像的特征嵌入公共域中,以学习匹配问题的共识特征表示,在几项基准实验中证明了 AMatFormer 匹配方法的有效性和效率。
May, 2023
本文介绍了基于 Transformer 网络的图像语义匹配学习器 TransforMatcher,通过全局匹配 - 匹配注意力和动态细化,利用轻量级注意力架构实现匹配处理和基于多层次特征的多通道相关图的精细化处理,以达到确切的匹配定位和 Semantic Learning 的效果
May, 2022
SPFormer 是一种新颖的视觉变换器,增强了超像素表示,通过对图像内容进行自适应划分,有效捕捉了复杂的细节,并在各种基准测试中表现出优异性能。其独特的可解释性结构提供了对模型内部过程的洞察,显著提高了 SPFormer 的稳健性。
Jan, 2024
本论文提出了基于深度学习和两种新型概念 ——ParaFormer 和基于图形的 U-Net 结构,以实现卓越的性能和高效率,通过在各种应用(包括单应性估计、姿态估计和图像匹配)上进行多项实验证明 ParaFormer-U 变体在保证性能同时,计算量仅为现有基于注意力模型的 50%。
Mar, 2023
本文提出了一种自适应的、采用了诸多优点的区域引导 Transformer 网络 (ASTR) 来解决图像的局部特征匹配问题,同时考虑了局部一致性和尺度变化的因素,实验结果证明 ASTR 在五个标准基准数据集上的表现超越了现有最先进的方法。
Mar, 2023
本文提出了一种新型的 Transformer 架构 DualFormer 用于视频识别,此架构可以有效地处理空间 - 时间关注,能够捕捉短距离和长距离的时空依赖关系,并通过本地 - 全局层次划分策略显著减少注意力计算中的关键值个数,从而提高效率并在五个视频基准测试上验证了 DualFormer 的优越性能。
Dec, 2021
在本文中,我们提出了一种名为 VSFormer 的视觉空间融合转换器,通过交叉关注获取场景的高度抽象视觉线索,进而通过联合视觉空间融合模块将这些视觉线索嵌入到相应的对应关系中,实现对内点的识别和相机姿态恢复,同时通过结合基于 KNN 的图和转换器的新颖模块有效捕捉局部和全局背景的一致性,大量实验证明所提出的 VSFormer 在室内外基准上优于现有方法。
Dec, 2023
使用 transformers 建立了一种稳健的跟踪框架 MixFormer,采用混合注意力模块(MAM)实现了特征提取和目标信息的同步建模,同时在 LaSOT、TrackingNet、VOT2020、GOT-10k 和 UAV123 等五个基准测试数据集上取得了最新的最高成功率和 EAO 评分。
Mar, 2022
本研究提出了一种名为 AutoFocusFormer (AFF) 的局部 - 注意力 Transformer 图像识别骨干网络,通过学习保留任务中最重要的像素来实现自适应降采样,采用点基础分割方法,使得小目标在降采样过程中得到更充分地表示,并展示它在分割任务中显著优于基线模型。
Apr, 2023