AMatFormer:基于锚点匹配变换器的有效特征匹配
本文提出了一种新的层次化提取和匹配变形器 MatchFormer 来提高局部特征匹配的效率和鲁棒性,该方法结合自注意力和跨注意力在多尺度特征的层次化架构上提高匹配鲁棒性,并在室内姿势评估、室外姿势评估、单应性评估和图像匹配检测四个基准测试中均取得 state-of-the-art 的结果。
Mar, 2022
本论文提出了基于深度学习和两种新型概念 ——ParaFormer 和基于图形的 U-Net 结构,以实现卓越的性能和高效率,通过在各种应用(包括单应性估计、姿态估计和图像匹配)上进行多项实验证明 ParaFormer-U 变体在保证性能同时,计算量仅为现有基于注意力模型的 50%。
Mar, 2023
使用 transformers 建立了一种稳健的跟踪框架 MixFormer,采用混合注意力模块(MAM)实现了特征提取和目标信息的同步建模,同时在 LaSOT、TrackingNet、VOT2020、GOT-10k 和 UAV123 等五个基准测试数据集上取得了最新的最高成功率和 EAO 评分。
Mar, 2022
本研究提出了一种新的图形 Transformer 架构,称为 Anchor Graph Transformer(AGFormer),通过利用锚图模型将节点到节点的消息传递转换为锚到锚和锚到节点的消息传递过程,从而比常规节点到节点的 Transformer 更高效且更具鲁棒性。
May, 2023
提出了一种基于 Transformer 的 ASpanFormer 检测器自由匹配器,采用分层注意力结构,能够在全局和本地粒度上捕捉上下文,并具有自适应调整注意跨度的能力,以此来实现在匹配任务中对高相关性像素的细粒度关注。
Aug, 2022
本文提出了一种基于 transformers 的简单有效的追踪框架 MixFormer,通过 Mixed Attention Module 实现了特征提取和目标信息集成的同步建模,设计了两种类型的 MixFormer 追踪器,使用不同的预训练方法,提出了减少计算成本的不对称注意机制和有效的得分预测模块,并在包括 LaSOT,TrackingNet,VOT2020,GOT-10k,OTB100 和 UAV123 等七个追踪基准中创造了最新的性能标准。
Feb, 2023
本文提出了基于变换器的半密集匹配方法,引入了基于仿射的局部注意力和选择性融合来模拟跨视图变形,并强调了损失设计中的空间平滑性的重要性,通过这些增强方法,我们的网络在不同设置下表现出很强的匹配能力。
May, 2024
本文介绍了基于 Transformer 网络的图像语义匹配学习器 TransforMatcher,通过全局匹配 - 匹配注意力和动态细化,利用轻量级注意力架构实现匹配处理和基于多层次特征的多通道相关图的精细化处理,以达到确切的匹配定位和 Semantic Learning 的效果
May, 2022
在本文中,我们提出了一种名为 AAUformer 的简单但高效的网络,通过在双视图和单视图中分别平衡外极线的影响,以实现出色的泛化性能。我们的模型通过引入窗口自注意力和多尺度交替注意力骨干网络,实现了像素级单视图的局部语义特征的解放和难以区分区域的粗细匹配过程,并在各种数据集上进行了比较和消融研究,证明了其在场景流数据集上达到了最先进的效果,并在 KITTI 2015 数据集上具有竞争力的微调性能。此外,在合成和实际数据集上的交叉泛化实验中,我们的模型优于几个最先进的方法。
Aug, 2023
我们提出了 EFormer 方法,用于增强模型对语义和轮廓特征的注意力,特别是后者,通过建立语义和轮廓探测器 (SCD) 来准确捕捉它们的分布,最终通过融合这两种特征生成预测的肖像 alpha matte。实验表明,EFormer 方法在肖像抠图任务中优于之前的方法。
Aug, 2023