TAFNet:一种针对 RGB-T 人群计数的三流自适应融合网络
本文提出使用生成对抗网络(GANs)从彩色(RGB)图像自动生成热红外(TIR)图像,并同时使用两者训练人群计数模型以提高精确度。在多个人群计数模型和基准人群数据集上进行的实验证明了显著的精确度提升。
Jan, 2024
本研究提出了一种名为质量感知特征聚合网络(FANet)的神经网络架构,用于在恶劣和具有挑战性的条件下使用补充的视觉和热红外数据进行强健的可见光跟踪,并对其进行了广泛的基准数据集实验证明了其与其他最先进的 RGBT 跟踪方法相比较高的准确性表现。
Nov, 2018
本篇研究通过使用 RGBT 图像和多模态协作表征学习框架来实现人群计数,并提供一个大规模 RGBT 人群计数基准测试数据集,研究表明该框架在 RGBT 人群计数和多模态人群计数方面表现优异。
Dec, 2020
通过可见光图像和红外热图像的融合进行物体跟踪的 RGB-T 跟踪,通过交叉模态相互提示学习的新型两流 RGB-T 跟踪架构,将此模型作为教师指导单流学生模型,通过知识蒸馏技术实现快速学习,实验证明与类似的 RGB-T 跟踪器相比,我们设计的教师模型达到了最高的精确度,而具有相当精确度的学生模型实现了比教师模型快三倍以上的推理速度。
Mar, 2024
提出了一种深度学习的图像跟踪方法,将 RGB 图像和红外热像合并进行特征提取和人工属性应用的跟踪,此方法在 RGBT234 和 LasHeR 这两个最广泛使用的 RGBT 目标跟踪数据集上表现优异。
Jul, 2023
本研究提出了一种新的联合多任务学习框架,用于实时监控人群计数的无人机监控。该框架利用图像融合网络结构来融合可见光和热红外图像,并使用人群计数网络结构来估计密度图。结果表明,与现有方法相比,该方法在客观评估和训练过程中具有可比较的结果。
Feb, 2022
该研究深入比较了六种不同的卷积网络融合架构,并分析了它们的适应性,从而使传统架构能够实现与最先进的结果可比的检测性能。然后,提出了一种感知光照的 Faster R-CNN,该方法采用适应性门控函数来整合彩色和热图像,实现了对行人的有效检测,并在 KAIST 多光谱行人基准上获得了验证。
Mar, 2018
本文提出一种名为互动上下文感知网络(ICANet)的新型网络,它通过混合两种模态的特征来实现跨模态信息以及通过 Multi-Scale Attention Reinforcement(MSAR)和 Upper Fusion(UF)模块来进行跨尺度融合,从而提高了关键目标的检测准确性。
Nov, 2022
提出了一种自适应跨模态目标跟踪算法 Modality-Aware Fusion Network(MAFNet),它通过自适应加权机制有效地整合 RGB 和近红外模态的信息,弥合了外观差距,实现了模态感知的目标表示。
Dec, 2023
该论文提出一种多适配器卷积网络(MANet),用于 RGBT 跟踪中的模态共享、模态特定和实例感知特征学习,以及采用并行结构的适配器以减少计算复杂度,与其他 RGB 和 RGBT 跟踪算法相比表现出杰出的性能。
Jul, 2019