EANet:增强的基于属性的 RGBT 跟踪器网络
该论文提出了一种基于多任务学习的框架,学习适用于红外追踪的特征模型,并使用大规模红外训练数据集来优化该模型。在三个基准测试中,实验结果表明,该算法的相对增益达到 10%,表现优于现有的方法。
Nov, 2019
该研究提出了一个大规模的 RGB-T 追踪视频基准数据集和一种新的基于图的方法,以学习强大的对象表示并实现多源数据融合的自适应融合,对其他最先进的追踪方法进行比较,并提供了对 RGB-T 对象追踪领域的新见解和潜在研究方向。
May, 2018
本文提出了两种用于 RGB-T 目标跟踪的视觉关注机制,其中包括利用 RGB 和热感数据的局部关注和多模态目标驱动关注估计网络的全局关注。在两个 RGB-T 基准数据集上的实验验证了我们提出算法的有效性。
Aug, 2019
本研究提出一种多层相似性模型来提高红外物体跟踪的辨别能力,其中利用了卷积层计算 TIR 对象的全局语义相似度和本地结构相似度,通过一种相对熵的集成子网络进行集成,并构建了大规模 TIR 视频序列数据集以优化算法效果。
Jun, 2019
使用图像到图像翻译模型,将可得的 RGB 数据转换成合成 TIR 数据用于 TIR 跟踪中的端到端特征的训练,并在 VOT-TIR2017 数据集上进行实验,发现相对于仅训练可得真实 TIR 数据或人工构建特征的方法,使用合成数据进行训练可以显著提高跟踪性能且通过与运动特征的结合可以进一步改进。
Jun, 2018
通过可见光图像和红外热图像的融合进行物体跟踪的 RGB-T 跟踪,通过交叉模态相互提示学习的新型两流 RGB-T 跟踪架构,将此模型作为教师指导单流学生模型,通过知识蒸馏技术实现快速学习,实验证明与类似的 RGB-T 跟踪器相比,我们设计的教师模型达到了最高的精确度,而具有相当精确度的学生模型实现了比教师模型快三倍以上的推理速度。
Mar, 2024
本文提出了一种基于混合注意机制的 RGB-T 追踪器 (MACFT),该追踪器在特征提取和特征融合阶段分别利用不同的转换器骨干支路和混合注意操作实现多模式适应性融合,有效提高了 RGB-T 追踪的鲁棒性和适用性。
Apr, 2023
提出了一种融合红外和可见光图像的端到端相似跟踪框架,这个框架通过特征级别的融合机制,在特征提取、目标估计网络和分类器三个主要部件中提高了单模态组件的表现表现,并在 VOT-RGBT2019 数据集上获得了 0.391 的准确率,进而取得 RGBT210 数据集的最佳表现。
Aug, 2019
本研究旨在构建一个高度多样化的可见热(RGB-T)无人机跟踪(VTUAV)基准,包括 500 个序列和 170 万帧对,以及设计了一个名为 Hierarchical Multi-modal Fusion Tracker (HMFT) 的新的 RGB-T 基准,该基准可以在各个级别上融合 RGB-T 数据。
Apr, 2022
提出了一种通过联合建模外观和运动线索的新型 RGB-T 跟踪框架,利用先进的融合方法并引入跟踪切换机制使其性能显著优于其他同类算法。
Jul, 2020