本文介绍了一种名为 RTrack 的新型目标表示基准追踪器,该追踪器利用一组样本点来获取伪边界框,并自动排列这些点以定义空间范围和突出显示局部区域。我们还对训练潜力进行了深入研究,并引入了一对多的前导分配策略,该方法在 GOT-10k 数据集上实现了与最先进的追踪器竞争性性能,并将训练时间减少到了先前性能最佳追踪器的 10%。大量实验证明,我们提出的 RTrack 在更快的收敛速度下取得了最先进的结果。
Sep, 2023
该研究提出了一套针对高性能通用物体跟踪器设计的实用目标状态估计指南,根据这些指南设计了 Fully Convolutional Siamese tracker++(SiamFC ++), 并在五个有挑战性的基准测试(OTB2015,VOT2018,LaSOT,GOT-10k,TrackingNet)上取得了最先进的性能。在大规模的 TrackingNet 数据集上,SiamFC ++ 实现了 75.4 的 AUC 得分,远高于实时要求。
Nov, 2019
本文提出了一种名为 RepPoints 的方法,它采用一组样本点作为对象的更精细的表示,不需要使用锚点来采样边界框空间,并在检测任务中获得与目前最佳方法相同的效果。
Apr, 2019
研究者通过理论分析和实验证明了 Siamese trackers 缺乏严格的平移不变性,为此提出了一种用于改善性能的有效的空间感知采样策略。通过进行广泛的消融研究,该模型在四个跟踪基准中获得了最佳结果,包括 OTB2015、VOT2018、UAV123 和 LaSOT。
Dec, 2018
通过单点注释学习跟踪表示,提出了一种软对比学习框架(SoCL),该框架将目标拥有性先验融合到端到端的对比学习中,并将所学表示应用于视觉跟踪,展示出优越的性能和鲁棒性。
Apr, 2024
本文提出了一种基于学习的多边形点集跟踪方法,通过全局 - 局部对齐和精细设计的损失和正则化项,以多边形点集方式传播目标轮廓,从而实现运动跟踪、部分变形和纹理映射等多种视觉效果。同时通过 VOS 数据集的学习策略,避免了点对应数据集的开发,并在新的跟踪数据集上证明了该方法的优异性能。
May, 2021
本文介绍了一种针对视觉目标跟踪的新算法 Siamese Keypoint Prediction Network,该算法采用级联方法进行预测建模,并在四个基准数据集上实现了卓越的跟踪效果。
Jun, 2020
我们提出了一种新的多对象跟踪的视觉分层表示范式,并通过关注对象的组合性视觉区域和与背景的对比背景信息,不仅仅局限于语义可视线索(如边界框),而是更有效地区分对象。这种组合性 - 语义 - 上下文层次结构灵活地集成到不同的基于外观的多对象跟踪方法中。我们还提出了一种基于注意力的视觉特征模块来融合分层视觉表示。该方法在多个多对象跟踪基准中实现了最先进的准确性和时间效率。
Feb, 2024
该研究提出了一种建立完整物体表示进行跟踪的框架,通过使用多样的物体模板和差异度计量法,可以提高跟踪性能和健壮性,而不降低速度,并适用于需要视觉理解对象的进一步任务。
Jul, 2019
在本文中,我们提出了两种简单而有效的机制:角度估计和空间遮罩,以解决 Siamese 网络追踪器的旋转和背景干扰问题,并提出了一个名为 Siam-BM 的结果追踪器,它不仅显着提高了追踪性能,而且更重要的是保持了实时性。在 VOT2017 数据集上的评估表明,Siam-BM 实现了 0.335 的 EAO,这使其成为迄今为止表现最佳的实时追踪器。
Sep, 2018