了解周围环境:利用场景信息进行目标跟踪
在本文中,我们提出了一种基于上下文感知的跟踪模型,该模型是通过利用整个序列中的信息联合元更新两个分支来优化表示空间上的跟踪器,实现对外观变化的自适应。我们采用上下文聚合模块融合历史帧中的信息,然后使用上下文感知模块为跟踪器的两个分支学习亲和向量。通过使用专用的元学习方案,在有限的训练样本下,该跟踪方法在 VOT2018 上实现了 0.514 的 EAO 评分,40FPS 的速度,表明了它提高了潜在跟踪器的准确性和鲁棒性,并且在速度上有小幅下降。
Apr, 2022
提出了一种能够应对大场景和多物体的无监督对象跟踪体系结构,包括空间不变运算(卷积和空间注意)和本地对象表示方案,在多个实验中展现了在有多个物体的混乱场景中跟踪对象比其他方法更好,并且能够很好地推广到训练时未遇到的更大,物体更多的视频中。
Nov, 2019
该论文提出了一种基于部分追踪策略的物体追踪方法,其中使用细粒度显著性挖掘模块来捕获有区分度的局部信息,结合显著性关联建模模块来得到识别目标状态的有效表达,并在 5 个数据集的广泛实验中取得了优于现有方法的表现。
Aug, 2021
本文提出了一个新的全局关联图模型与链接预测方法,以预测现有的 tracklets 位置并通过交叉注意力运动建模和外观重新识别将检测与 tracklets 链接起来,以解决由于不一致的 3D 对象检测引起的问题,并提高 nuScenes 检测挑战中标准 3D 对象检测器的检测准确率。实验结果表明,该方法在现有基于视觉的跟踪数据集上表现出了 SOTA 的性能。
Apr, 2022
该论文提出了一种端到端可训练的方法,结合物体检测和跟踪,并引入了序列记忆模块,使其更好地处理多物体跟踪,尤其是遮挡的情况。经过大规模的合成数据和实际测试,在 KITTI 和 MOT17 数据集上取得了最先进的性能表现。
Mar, 2021
本文提出了一种物体跟踪方法,通过实例特定的物体性度量产生 “高质量” 提议,并更新物体模型,以集中处理这些提议中的困难误报,并学习按对象模型对提议重新排名,在流畅跟踪移动对象和超低帧速率视频方面表现良好。
May, 2016
本文提出了一种使用关联网络来追踪眼花缭乱的物体的方法,通过结合部分注释和自我监督的训练策略,该方法在多个数据集上表现出新的最先进水平,并且在 LaSOT 上取得了 67.1% 的 AUC 分数,在 OxUvA 长期数据集上增加了 +5.8% 的绝对增益。
Mar, 2021
本文提出了一种有效且高效的视觉目标跟踪方法,通过短期模型和长短期范式相结合来实现稳定性与适应性的平衡,并采用整体结构的一致性以及瞬时变化的建模来识别并定位目标。
Aug, 2020
本文提出了一种可以适应不同场景的视觉定位方法,包括改进的模型架构、层次相关层和尺度和不确定性信息的利用。该方法优于使用 SIFT 特征的 5 点算法和之前训练在不同数据上的学习方法,并在只有很少的参考图像可用的情况下,明显优于现有的学习和经典方法。
Nov, 2020
通过对视频场景内容及动态规律、语义等方面的先验知识进行分析和预处理,提出一种利用贝叶斯网络解决视频不同场景中的移动轨迹问题的方法,并在实验中证明了其有效性。
Mar, 2016