基于时间尺度连续性的自监督多目标跟踪
本文提出了一种新的基于时间一致性递进学习的框架,利用自监督辅助任务来捕捉未被标记的轨迹之间的关系,从而更好地实现视频检索中的标记,相比现有技术提高了高达 8% 的未标记数据真实标记的准确性和重识别的性能。
Jul, 2020
通过引入基于排序的追踪标签生成和交叉熵损失的无监督重新识别网络解决注释成本高的问题,可在无需追踪监督的情况下提高多目标跟踪的性能,为跟踪领域开拓更加简单和有效的解决方案提供新思路。
Jun, 2020
本文提出了一种新颖的路径一致性概念,用于学习强健的物体匹配,无需使用手动物体标识监督。通过改变模型可以观察的帧的方式,即跳过观察中的帧,我们可以得到多个不同的关联结果来追踪一个物体。由于观察的差异不会改变物体的身份,所得到的关联结果应该是一致的。基于这一理论,我们生成多个观察路径,每个路径都指定了一个不同的要跳过的帧的集合,并制定了路径一致性损失,以强制要求不同观察路径下的关联结果是一致的。通过在三个跟踪数据集(MOT17、PersonPath22、KITTI)上进行大量实验证明,我们的方法在各种评估指标上优于现有的无监督方法,并且甚至接近监督方法的性能水平。
Apr, 2024
本文旨在研究不使用任何视频级联标签的自监督多目标跟踪问题,并通过不同 iable 可微分的软目标分配来解决问题,使用时间和多视图数据进行训练,从而获得关于目标的关联伪标签。与大多数依赖于学习特征对应关系预算任务的自监督跟踪方法不同,我们的方法直接优化于复杂情景下的交叉对象关联,为鲁棒的重新识别 MOT 方法提供了一种解决方案,不会受到 Minima 的影响。在 KITTI、Waymo、nuScenes 和 Argoverse 数据集上评估我们的模型,与其他无监督方法相比,一致提高了 nuScenes 上的关联精度(7.8%)。
May, 2023
提出了一种无监督学习方法,基于 Siamese 相关滤波网络,在前向追踪和反向追溯之间进行一致性测量来训练视觉跟踪器,并提出了多帧验证方案和一种成本敏感的损失来促进无监督学习,该方法在速度上达到实时水平,在不使用昂贵标记数据的情况下,实现与现有标准跟踪器相当的准确度,而且在使用更多未标记或弱标记数据的情况下,该方法有进一步提高跟踪精度的潜力。
Jul, 2020
该研究提出了一种视频基于物体为中心的模型,通过适应物体为中心的插槽以及构建完整物体原型来处理遮挡,仅需要稀疏的检测标签进行物体定位和特征绑定,无需 ID 标签,并通过自我监督的期望最大化损失函数实现物体关联,实验证明了该方法在物体为中心的学习领域的卓越性能。
Sep, 2023
我们提出了一个混合框架,通过将自动化目标跟踪器与少量人工输入相结合,可以持续产生高质量的物体跟踪。我们的方法利用无标签视频上的自我监督学习,学习适合目标物体的表示,并使用该表示主动监视其跟踪区域,并在跟踪器失效时决策是否需要人工重新定位目标。实验证明我们的方法在三个数据集上优于现有方法,尤其适用于小型、高速移动或遮挡物体。
May, 2024
本文提出了第一个完全无监督的方法,用于在真实场景的序列中分割多个对象,通过空间绑定对象并将这些槽联系起来,在高级语义特征空间中重建中间帧,解决了效率和规范化问题,成功地在 YouTube 视频中分割了复杂且多变的类别的多个实例。
Oct, 2023
该研究提出了一种新的无监督跟踪框架,通过跟踪变化明显的物体,解决了以往模板匹配无法处理较长时间跨度的问题,并通过正向和反向跟踪视频,学习了时间上的对应关系并且通过提出的一致性传播转换和不可微的区域遮盖,构建了一个可靠的特征模板,采用基于质量伪标签动态赋权值的策略,提高了学习效果,达到了 TrackingNet 和 LaSOT 等大规模数据集上有监督方法的表现水平。
Apr, 2022