跨模式目标跟踪通过模态感知融合网络和大规模数据集
该论文提出一种多适配器卷积网络(MANet),用于 RGBT 跟踪中的模态共享、模态特定和实例感知特征学习,以及采用并行结构的适配器以减少计算复杂度,与其他 RGB 和 RGBT 跟踪算法相比表现出杰出的性能。
Jul, 2019
通过解耦可视目标跟踪为三个不同层次的组成部分,我们提出了一种名为 X-Net 的新型模态协助网络,用于学习鲁棒的多模态特征表示,解决 RGB 和热模态之间巨大差异带来的特征学习障碍,并改善跟踪性能。
Dec, 2023
本文提出了一种基于双层优化的目标感知对抗学习(TarDAL)用于融合热红外和可见光图像的网络,结合了两者的共性和差异,同时建立了一套同时采集红外和光学图像的标定传感器,实现了对不同场景的目标检测并获得了较高性能。
Mar, 2022
提出两种新的雷达预处理技术,并引入了多任务跨模态注意融合网络(MCAF-Net)来进行目标检测,相对于现有的基于雷达和相机融合的目标检测算法具有更强的鲁棒性,特别是在恶劣的天气条件和夜间场景下。
Jul, 2023
多模式深度传感器融合为自动驾驶车辆在各种天气条件下实现视觉理解提供了潜力,本研究提出了一种高效、模块化的 RGB-X 融合网络,通过场景特定的融合模块,实现了利用预训练的单模态模型进行融合,从而使用小型、核心配准的多模态数据集创建联合输入自适应的网络架构,在 RGB - 热成像和 RGB - 门控数据集上表现出了优越性,仅使用少量额外的参数进行融合。
Oct, 2023
本研究提出了一种多模态非对称 UNet(MMA-UNet)的方法,通过为不同模态分别训练专门的特征编码器和实施交叉尺度融合策略,在相同的表示空间中保持不同模态的特征,从而实现了可视化自然且语义丰富的红外和可见光图像信息融合。该方法在融合效率上优于现有的对比融合方法。
Apr, 2024
通过使用深度神经网络,并在不同的网络级别中应用自注意力机制以及交叉注意力机制,我们提出了一种名为 FusionRAFT 的方法,实现了早期传感器模态(RGB 和深度)之间的信息融合,以解决 RGB 信息不可靠的问题,在主动配准中取得了比最近方法更好的性能。
Jul, 2023
基于可见光和热红外图像融合的目标跟踪,称为 RGB-T 跟踪,在计算成本较低的情况下如何实现两种模态信息更全面的融合一直是研究人员探索的问题。最近,随着计算机视觉中即时学习的兴起,我们可以更好地将知识从视觉大模型转移到下游任务中。考虑到可见光和热红外模态之间的强互补性,我们提出了一种基于两种模态之间相互即时学习的跟踪架构。我们还设计了一个轻量级的即时学习器,在骨干网络的每一层中嵌入了二维注意机制,以低计算成本将信息从一种模态转移到另一种模态中。广泛的实验证明,我们提出的跟踪架构既有效又高效,在保持高运行速度的同时实现了最先进的性能。
Aug, 2023
提出了一种自适应多尺度融合网络(AMFusion),通过红外和可见图像的融合规则,分别调整光照分布和提高检测准确性,从而实现针对夜晚物体检测的性能提升。
Mar, 2024
本文提出了一种基于混合注意机制的 RGB-T 追踪器 (MACFT),该追踪器在特征提取和特征融合阶段分别利用不同的转换器骨干支路和混合注意操作实现多模式适应性融合,有效提高了 RGB-T 追踪的鲁棒性和适用性。
Apr, 2023