RGBT 跟踪的双重门控互学网络
本文提出了一种新的挑战感知神经网络来处理 RGBT 跟踪中的共享和特异性挑战,包括对模态共享和模态特异性挑战进行聚合和并行嵌入到骨干网络中以有效地形成更具区分性的目标表示。
Jul, 2020
通过解耦可视目标跟踪为三个不同层次的组成部分,我们提出了一种名为 X-Net 的新型模态协助网络,用于学习鲁棒的多模态特征表示,解决 RGB 和热模态之间巨大差异带来的特征学习障碍,并改善跟踪性能。
Dec, 2023
本文提出了一种基于混合注意机制的 RGB-T 追踪器 (MACFT),该追踪器在特征提取和特征融合阶段分别利用不同的转换器骨干支路和混合注意操作实现多模式适应性融合,有效提高了 RGB-T 追踪的鲁棒性和适用性。
Apr, 2023
提出一种名为 MFGNet 的动态模态感知滤波器生成模块,其能够通过自适应调整卷积核来增强可见和热数据之间的信息交流,以解决 RGB-T 跟踪中的遮挡、快速运动和视野范围限制等问题,并且实验表明该算法的有效性。
Jul, 2021
本文旨在解决如何有效地融合 RGB-D 信息来进行显著目标检测的关键问题。通过提出一个新的互惠关注模型来融合来自不同模态的注意力和上下文信息,实现高阶和三线性交叉信息互补,从而提高 RGB-D SOD 的模型性能。同时,通过添加选择性关注来重新加权深度相关信息,提高模型的鲁棒性。在两个数据集上的实验验证了该模型的有效性。
Oct, 2020
本文提出一种基于深度融合和递归策略的算法用于多模态追踪,该算法利用端到端训练的卷积神经网络的特征表示强化在所有模态中的物体表示,采用全局平均池化和加权随机选择分数进行通道评分和选择,并通过剪枝去除冗余和噪声特征以实现更强的特征表示。在两个 RGBT 追踪基准数据集上的实验结果表明,该算法在 RGB 和 RGBT 追踪方法中实现了明显的最新技术水平。
Jul, 2019
该论文提出一种多适配器卷积网络(MANet),用于 RGBT 跟踪中的模态共享、模态特定和实例感知特征学习,以及采用并行结构的适配器以减少计算复杂度,与其他 RGB 和 RGBT 跟踪算法相比表现出杰出的性能。
Jul, 2019
提出了一种非常简单的组合打乱多感受注意力(GSMA)模块,用于提取和结合多尺度 RGB 和热能特征,然后将提取的多模态特征直接集成到多级路径聚合网络中,显著改善了融合效果和效率,并通过多模态监督(MS)来充分监督 RGB-T 目标检测,实验证明该模型在保持竞争力的同时达到了最先进的准确性。
May, 2024
基于可见光和热红外图像融合的目标跟踪,称为 RGB-T 跟踪,在计算成本较低的情况下如何实现两种模态信息更全面的融合一直是研究人员探索的问题。最近,随着计算机视觉中即时学习的兴起,我们可以更好地将知识从视觉大模型转移到下游任务中。考虑到可见光和热红外模态之间的强互补性,我们提出了一种基于两种模态之间相互即时学习的跟踪架构。我们还设计了一个轻量级的即时学习器,在骨干网络的每一层中嵌入了二维注意机制,以低计算成本将信息从一种模态转移到另一种模态中。广泛的实验证明,我们提出的跟踪架构既有效又高效,在保持高运行速度的同时实现了最先进的性能。
Aug, 2023
提出了一种融合红外和可见光图像的端到端相似跟踪框架,这个框架通过特征级别的融合机制,在特征提取、目标估计网络和分类器三个主要部件中提高了单模态组件的表现表现,并在 VOT-RGBT2019 数据集上获得了 0.391 的准确率,进而取得 RGBT210 数据集的最佳表现。
Aug, 2019