- SiamTHN: 用于视觉跟踪的连体目标高亮网络
本文提出了一种基于孪生网络的目标跟踪方法,其中引入了目标强调模块来提高相似性响应映射的目标区域的聚焦能力,同时使用校正损失来训练模型以减少分类和回归之间的不匹配,实验表明该方法优于当前模型在性能上表现,同时效率达到 38 fps。
- CVPRMixFormer:迭代混合注意力实现的端到端跟踪
本文提出了一种基于 transformers 的简单有效的追踪框架 MixFormer,通过 Mixed Attention Module 实现了特征提取和目标信息集成的同步建模,设计了两种类型的 MixFormer 追踪器,使用不同的预训 - AAAI基于相关掩蔽建模的紧凑型 Transformer 跟踪器
本文证明了自注意力结构足以实现信息聚合,无需进行结构适应以及对于目标跟踪提取辨别特征和增强目标和搜索图像之间的通信。通过采用基本的视觉 Transformer(ViT)架构作为主跟踪器,并将模板和搜索图像进行特征嵌入,进而提出了一种紧凑的变 - ProContEXT: 探索逐渐演变的上下文变换器用于跟踪
本研究提出了一种基于 Progressive Context Encoding 的可变模板追踪,利用空间和时间上下文预测物体运动轨迹,同时探索了多种上下文的建模方法并在多个基准数据集上获得了最先进的性能。
- ECCV面向序列级别的视觉跟踪训练
该论文提出了一种基于强化学习的序列级别训练策略,旨在通过数据采样、学习目标和数据增强的序列级别设计,提高视觉追踪算法的准确性和鲁棒性,实验证明这种方法可以持续提高四个典型的跟踪模型的准确性而不需要修正体系结构。
- 面向实时和能量高效的孪生跟踪 —— 一种硬件软件方法
本文提出了一种基于量化 Siamese 网络和 Om Vivado HLS 的硬件软件实现方法,该方法可显著提高计算效率,是一种可用于低功耗应用的能耗有效型跟踪器。
- CVPR具有循环移位窗口关注力的 Transformer 跟踪
本文提出了一种新的 transformer 模型结构用于视觉目标跟踪,该模型引入了多尺度循环平移窗口机制使得跟踪注意力可以由像素级别提升到窗口级别,这种跨窗口的多尺度注意力有利于聚合不同尺度的注意力,同时采用的循环平移策略通过添加位置信息扩 - 具有联合元更新的上下文感知视觉跟踪
在本文中,我们提出了一种基于上下文感知的跟踪模型,该模型是通过利用整个序列中的信息联合元更新两个分支来优化表示空间上的跟踪器,实现对外观变化的自适应。我们采用上下文聚合模块融合历史帧中的信息,然后使用上下文感知模块为跟踪器的两个分支学习亲和 - ECCV基于分割的鲁棒视觉跟踪
本文提出了一种基于分割的跟踪器,通过分割掩码来描述目标,相较于边框,在形状和对齐上更加精确,并且引入了一个独立的实例定位组件用于提高跟踪的鲁棒性,最终在挑战的数据集上取得了 69.7% 的成功率。
- CVPR相关感知的深度跟踪
我们提出了一种基于自注意力 / 交叉注意力的目标依赖特征网络,通过深度嵌入多层特征的交叉图像特征相关性,抑制了非目标特征,从而实现了实例变化的特征提取,在不需要额外的相关步骤的情况下可以直接用于预测目标位置,且可以灵活地在丰富的无配对图像上 - ICLR视觉目标追踪中的少样本后门攻击
本文论述了在视觉目标跟踪方面存在的安全威胁,提出了一个简单而有效的少样本反向胁迫攻击方法,通过优化两个交替的损失函数嵌入后门,研究表明,该攻击即使出现在少数帧中也能显著降低跟踪器的性能,并且对潜在的防御措施具有抵抗力。
- CVPR基于递归最小二乘估计法的在线学习在视觉跟踪中的应用
本文提出了一个无需离线训练的在线学习方法,通过递归最小二乘算法辅助进行 few-shot 在线自适应学习,实现在模型中构建记忆保留机制,同时防止过度拟合和遗忘,有效提升了现代深度跟踪器的表现效率。
- CVPR用于视觉目标跟踪的判别性单次分割网络
提出了一种具有判别性的单次拍摄分割跟踪器 D3S2,通过应用两种具有互补几何属性的目标模型,一种对广泛变换不变,包括非刚体变形,另一种假设刚性对象可同时实现稳健的在线目标分割。该跟踪器在不进行数据集微调的情况下,只训练分割作为主要输出,便比 - 基于示例变换器的高效视觉追踪
本文介绍了一种利用单实例层级注意机制的 Transformer 模块,用于实时视觉物体跟踪的 Exemplar Transformer。通过将 Exemplar Transformer 模块应用于 E.T.Track 视觉追踪器,该方法在 - 用判别滤波器和孪生网络进行视觉物体追踪:一项调查和展望
该论文系统评估了 90 多个基于 DCFs 和深度 Siamese Network 的跟踪器在九个基准测试中的表现,讨论了这两种跟踪范例中相同和不同的挑战,并分析了它们的性能,最后给出了基于分析的挑战建议。
- ICCV对抗性模糊视觉目标跟踪的学习
本篇论文提出了一种对视觉对象跟踪器的对抗运动模糊攻击方法,通过对模糊运动和光积累参数的联合预测网络进行优化,以在线将输入帧转换为其自然模糊的对手示例,从而误导最先进的跟踪器并导致显著的准确率下降。
- 基于单元级可微神经架构搜索的鲁棒视觉跟踪(CHASE)
该研究提出了一种基于可微分的单元结构自动寻找骨干特征的追踪网络的网络设计机制,旨在解决目标跟踪中由手动设计网络结构所产生的挑战与时间成本问题,实现了在不需要堆叠一系列模块的情况下,通过提出的策略避免了过拟合与性能崩溃问题的影响,实验结果表明 - CVPRIoU 攻击:面向视觉对象跟踪的时域连续黑盒对抗攻击
本篇论文提出了一种基于决策的黑盒攻击方法,名为 IoU 攻击,用于视觉对象追踪,并在深度追踪器上进行了验证。通过降低 IoU 得分,该方法降低了时间上协同边界框(即对象运动)的准确性。
- ICCV视觉目标跟踪的半自动注释
本论文提出了一种半自动化的包围盒标注方法,利用跟踪 - 检测方法和时间信息,采用现成的目标检测器训练,利用多重假设追踪 (MHT) 来提高检测结果的可靠性,并使用人工评估来进行迭代标注。通过实验显示,该方法可以将标注工作量减少 96%。
- CVPRAlpha-Refine: 通过精确的边界框估计提高跟踪性能
本研究提出了一种名为 Alpha-Refine (AR) 的新型、灵活、准确的细化模块,它显著提高了基本跟踪器的框估计质量,通过采用像素级相关、角预测头和辅助掩码头作为核心组件,AR 引导的 DiMP-super 在实时速度下实现了非常有竞