基于孪生关注关键点网络的高性能视觉跟踪
本文介绍了一种针对视觉目标跟踪的新算法 Siamese Keypoint Prediction Network,该算法采用级联方法进行预测建模,并在四个基准数据集上实现了卓越的跟踪效果。
Jun, 2020
本文提出了一种名为 SiamAttn 的可变形注意力机制的 Siamese 追踪器,该机制通过自注意和交叉注意来计算特征,能够有效地更新目标模板和聚合丰富的上下文信息以进行更准确的视觉目标跟踪,并在六个基准测试中实现了最新的最优结果。
Apr, 2020
本文提出了一种简单的基于目标感知的 Siamese 图注意力网络解决视觉跟踪中的相似性匹配问题,通过建立完全二分图建立目标和搜索区域之间的部分对部分对应关系,并应用图注意力机制从模板特征传播目标信息到搜索特征,使用目标感知区域选择机制适配不同对象的大小和纵横比变化,实验证明该算法优于现有基于深度学习的最先进跟踪器。
Nov, 2020
本文提出了一种新的基于关注机制的 Siamese 追踪器 (SiamAPN ++), 以便实现 UAV 跟踪的实时高效性和卓越性能。实验表明,该追踪器在两个权威基准测试中胜过了其他目前最先进的追踪器,并且在典型的嵌入式平台上实现了令人满意的实时追踪结果.
Jun, 2021
本文提出了一种基于孪生网络的目标跟踪方法,其中引入了目标强调模块来提高相似性响应映射的目标区域的聚焦能力,同时使用校正损失来训练模型以减少分类和回归之间的不匹配,实验表明该方法优于当前模型在性能上表现,同时效率达到 38 fps。
Mar, 2023
在本文中,我们提出了两种简单而有效的机制:角度估计和空间遮罩,以解决 Siamese 网络追踪器的旋转和背景干扰问题,并提出了一个名为 Siam-BM 的结果追踪器,它不仅显着提高了追踪性能,而且更重要的是保持了实时性。在 VOT2017 数据集上的评估表明,Siam-BM 实现了 0.335 的 EAO,这使其成为迄今为止表现最佳的实时追踪器。
Sep, 2018
提出了一种基于 Siamese 网络的实时物体跟踪方法,利用图像分类任务中学习到的语义特征和相似度匹配任务中学习到的外观特征相结合,其中包括两个支路,一个用于语义特征学习,另一个用于外观特征学习,并针对前者提出了通道注意力机制,同时在 OTB-2013/50/100 数据集上取得了比其他实时跟踪器更好的性能。
Feb, 2018
通过利用完全卷积网络的表达能力,将视觉跟踪问题视为并行分类和回归问题,避免了与候选框相关的超参数,使得 SiamBAN 更具灵活性和通用性。在包括 VOT2018、VOT2019、OTB100、NFS、UAV123 和 LaSOT 的视觉跟踪基准测试中进行了广泛实验,证明了 SiamBAN 的高效性和有效性。
Mar, 2020
本文提出了一种用于轻量级追踪的高效自适应混合注意力变压器架构,实现了对相关轻量级追踪策略的显著改进,达到了先进的性能,在多个数据集上运行时帧率较高,参数量较小。
Sep, 2023
本文介绍了一种基于分类的思路来简化 Siamese 追踪器,并通过视觉模拟和实际跟踪示例对其进行了深入分析,提出了一种使用决策样本的紧凑潜在网络来快速调整基础模型,以及一种新的多样化样本挖掘策略来进一步提高所提出的网络的区分能力,在多个数据集上进行的大量实验结果表明,所有三种调整的追踪器在精度和高运行速度方面均获得了卓越的性能。
Feb, 2023