从单点注释中学习追踪表示
本文提出了基于新型弱标注的视频显著目标检测模型,并使用外观运动融合模块和双向 ConvLSTM 框架来实现有效的多模态学习和长期时序建模,还设计了一种前景背景相似度损失和一种弱标注增强策略,以提高模型性能和伪标签生成技术。在六个基准视频显著性检测数据集上的实验结果证明了我们方案的有效性。
Apr, 2021
该论文介绍了一种利用弱标记视频中的跟踪对象框传输到弱标记图像中生成伪 Ground Truth 框的框架,用以训练对象检测器,该方法包括从弱标记图像集合中挖掘分辨率区域以形成伪 GT 框,然后设计霍夫变换算法对每个图像投票以选择最佳盒子,目前已在 PASCAL 2007 和 2010 数据集上实现了最先进的弱监督检测结果。
Apr, 2016
我们提出了一个统一的点云视频自监督学习框架,用于面向对象和面向场景的数据。通过在点级别进行对比学习,我们的方法能够捕捉到细粒度语义。同时,我们引入了一个新的预训练任务,通过实现超点的语义对齐来进一步提高表示能力。此外,为了解决动态点云时间维度的高冗余性问题,我们提出了一种选择策略来保留适当的负样本,并利用其他实例中的高相似样本作为正样本的补充。大量实验证明我们的方法在各种下游任务上优于有监督对应方法,并展示了学到的表示的卓越可迁移性。
Aug, 2023
本研究介绍了一种从未标记的视频中进行无监督学习的新方法,通过引入一种面向物体的时间相干性方法来促进学习具有相似表征的物体,并在多个基准数据集上展示了与竞争无监督方法相比显著的准确度提高。
Dec, 2016
本文介绍了一种利用标记图像数据和未标记视频序列学习实例跟踪网络的半监督框架,采用实例对比目标,利用学习的嵌入区分每个实例并在不同帧之间稳定地跟踪对象,并且将此模块集成到单阶段实例分割和姿态估计框架中,较之两阶段网络显著降低了跟踪的计算复杂度。无需任何视频标注努力,我们的方法可达到与大多数完全监督方法相当甚至更好的性能。
Apr, 2021
使用基于单一物体跟踪和半监督学习的方法,对于 IoU 稀疏注释的目标检测,自动生成密集注释用于训练目标检测器,从而在 Epic-Kitchens 2020 目标检测挑战中获得了第一名和亚军的成绩(在不同测试集上)。
Jun, 2020
提出了一种无监督学习方法,基于 Siamese 相关滤波网络,在前向追踪和反向追溯之间进行一致性测量来训练视觉跟踪器,并提出了多帧验证方案和一种成本敏感的损失来促进无监督学习,该方法在速度上达到实时水平,在不使用昂贵标记数据的情况下,实现与现有标准跟踪器相当的准确度,而且在使用更多未标记或弱标记数据的情况下,该方法有进一步提高跟踪精度的潜力。
Jul, 2020
本文介绍了一种名为 RTrack 的新型目标表示基准追踪器,该追踪器利用一组样本点来获取伪边界框,并自动排列这些点以定义空间范围和突出显示局部区域。我们还对训练潜力进行了深入研究,并引入了一对多的前导分配策略,该方法在 GOT-10k 数据集上实现了与最先进的追踪器竞争性性能,并将训练时间减少到了先前性能最佳追踪器的 10%。大量实验证明,我们提出的 RTrack 在更快的收敛速度下取得了最先进的结果。
Sep, 2023