带有跨输入一致性的自监督多目标跟踪
本研究提出了一种自监督的 RGB-T 跟踪方法,使用跨输入一致性自监督训练策略和重新加权策略来提高训练效率,基于 Siamese 相关滤波网络建立跟踪器,表现优于七个有监督 RGB-T 跟踪器。
Jan, 2023
通过在图像序列帧上进行一致的关联性评分,我们提出了一种学习重新识别特征的训练目标,可以显著降低 ID 开关,即使在 BDD100k 基准测试中表现和受监督的方法相当,也能够设置自监督多目标跟踪的新颖技术。
Apr, 2023
本文提出了一种新颖的路径一致性概念,用于学习强健的物体匹配,无需使用手动物体标识监督。通过改变模型可以观察的帧的方式,即跳过观察中的帧,我们可以得到多个不同的关联结果来追踪一个物体。由于观察的差异不会改变物体的身份,所得到的关联结果应该是一致的。基于这一理论,我们生成多个观察路径,每个路径都指定了一个不同的要跳过的帧的集合,并制定了路径一致性损失,以强制要求不同观察路径下的关联结果是一致的。通过在三个跟踪数据集(MOT17、PersonPath22、KITTI)上进行大量实验证明,我们的方法在各种评估指标上优于现有的无监督方法,并且甚至接近监督方法的性能水平。
Apr, 2024
本文探索了样本在视频帧之间的潜在一致性,并提出了一种无监督对比相似性学习方法 UCSL,其中包括自对比、交叉对比和模糊对比三个对比模块。我们的方法在现有基准上表现优于现有的无监督方法,并且甚至比许多完全监督方法提供更高的准确性。
Sep, 2023
本文提出了一种跨领域 MOT 自适应方法,以先前的数据集为基础,并通过自我学习和更新来模拟新数据的获取过程,采用自监督学习的策略,实验结果表明在多项挑战性设置中,相比完全监督、无监督和自监督的最新方法,该方法在跟踪度量 MOTA 和 IDF1 上具有卓越表现。
Jun, 2023
提出了一种称为 “Tracking-by-Animation” 的跟踪框架,通过利用可微分的神经模型对多个对象进行跟踪,并在重构帧中动画化这些对象,从而实现了无需标记数据的端到端 MOT 学习。同时进一步提出了优化数据关联的 “Reprioritized Attentive Tracking” 模型。
Sep, 2018
使用自我监督训练改进现有的有监督模型,通过将数据标记和训练分为两个不同的阶段,并结合简单的技术来稠密化和重平衡伪标签,从而在实际视频中实现可靠的增益,适用于短期(基于流)和长距离(多帧)像素跟踪。
Jan, 2024
通过开发一个基于不确定性的度量标准,以验证和矫正风险的关联,本论文提出了一种通过模拟 tracklets 运动来增强学习特征一致性的 tracklet-guided 增强策略,同时采用分层不确定性采样机制进行难样本挖掘。最终的无监督 MOT 框架,即 U2MOT,在 MOT-Challenges 和 VisDrone-MOT 基准测试中被证明有效,取得了领先于其他已发表的监督和无监督跟踪器的性能。
Jul, 2023
该研究提出了一种视频基于物体为中心的模型,通过适应物体为中心的插槽以及构建完整物体原型来处理遮挡,仅需要稀疏的检测标签进行物体定位和特征绑定,无需 ID 标签,并通过自我监督的期望最大化损失函数实现物体关联,实验证明了该方法在物体为中心的学习领域的卓越性能。
Sep, 2023
本文提出了一种将外观和运动特征与几何信息显式结合以提供更准确跟踪的新型无监督 MOT 方法 UnsMOT,通过 CNN 和 RNN 模型提取外观和运动特征,构建对象的图形,并利用 GNN 模型和 CNN 特征输出经优化的对象几何嵌入,通过匹配提取特征和几何嵌入,找出对象之间的关联,实验结果显示与最先进方法相比,在 HOTA、IDF1 和 MOTA 指标上表现出色。
Sep, 2023