基于混合注意力的 RGB-T 跟踪
本文提出了两种用于 RGB-T 目标跟踪的视觉关注机制,其中包括利用 RGB 和热感数据的局部关注和多模态目标驱动关注估计网络的全局关注。在两个 RGB-T 基准数据集上的实验验证了我们提出算法的有效性。
Aug, 2019
基于可见光和热红外图像融合的目标跟踪,称为 RGB-T 跟踪,在计算成本较低的情况下如何实现两种模态信息更全面的融合一直是研究人员探索的问题。最近,随着计算机视觉中即时学习的兴起,我们可以更好地将知识从视觉大模型转移到下游任务中。考虑到可见光和热红外模态之间的强互补性,我们提出了一种基于两种模态之间相互即时学习的跟踪架构。我们还设计了一个轻量级的即时学习器,在骨干网络的每一层中嵌入了二维注意机制,以低计算成本将信息从一种模态转移到另一种模态中。广泛的实验证明,我们提出的跟踪架构既有效又高效,在保持高运行速度的同时实现了最先进的性能。
Aug, 2023
提出了一种新颖的 Transformer RGBT 跟踪方法,通过融合静态多模态模板和多模态搜索区域中的时空多模态令牌来处理目标外观变化,以实现鲁棒的 RGBT 跟踪,并通过注意机制增强多模态模板令牌的目标特征,从而促进多模态增强的目标变化信息的传递。该方法在三个 RGBT 基准数据集上的实验证明了与其他最先进的跟踪算法相比具有竞争力的性能,帧率可达 39.1。
Jan, 2024
提出了一种非常简单的组合打乱多感受注意力(GSMA)模块,用于提取和结合多尺度 RGB 和热能特征,然后将提取的多模态特征直接集成到多级路径聚合网络中,显著改善了融合效果和效率,并通过多模态监督(MS)来充分监督 RGB-T 目标检测,实验证明该模型在保持竞争力的同时达到了最先进的准确性。
May, 2024
通过可见光图像和红外热图像的融合进行物体跟踪的 RGB-T 跟踪,通过交叉模态相互提示学习的新型两流 RGB-T 跟踪架构,将此模型作为教师指导单流学生模型,通过知识蒸馏技术实现快速学习,实验证明与类似的 RGB-T 跟踪器相比,我们设计的教师模型达到了最高的精确度,而具有相当精确度的学生模型实现了比教师模型快三倍以上的推理速度。
Mar, 2024
提出了一种通过联合建模外观和运动线索的新型 RGB-T 跟踪框架,利用先进的融合方法并引入跟踪切换机制使其性能显著优于其他同类算法。
Jul, 2020
该论文提出一种多适配器卷积网络(MANet),用于 RGBT 跟踪中的模态共享、模态特定和实例感知特征学习,以及采用并行结构的适配器以减少计算复杂度,与其他 RGB 和 RGBT 跟踪算法相比表现出杰出的性能。
Jul, 2019
我们提出了一个统一的单阶段 Transformer RGB-T 跟踪网络,名为 USTrack,它通过自注意机制将上述三个阶段统一到一个 ViT(Vision Transformer)主干中,并利用模态之间的相互作用提取融合特征,增强预测的目标 - 背景区分度,同时通过模态可靠性的特征选择机制改善跟踪性能。通过在三个流行的 RGB-T 跟踪基准上进行广泛实验,证明我们的方法在保持最快推理速度 84.2FPS 的同时,实现了新的最先进性能,特别是在 VTUAV 数据集的短期和长期子集上,MPR/MSR 分别增加了 11.1% 和 11.3%。
Aug, 2023
提出了一种融合红外和可见光图像的端到端相似跟踪框架,这个框架通过特征级别的融合机制,在特征提取、目标估计网络和分类器三个主要部件中提高了单模态组件的表现表现,并在 VOT-RGBT2019 数据集上获得了 0.391 的准确率,进而取得 RGBT210 数据集的最佳表现。
Aug, 2019
提出一种名为 MFGNet 的动态模态感知滤波器生成模块,其能够通过自适应调整卷积核来增强可见和热数据之间的信息交流,以解决 RGB-T 跟踪中的遮挡、快速运动和视野范围限制等问题,并且实验表明该算法的有效性。
Jul, 2021