单个热成像的多模态传感器融合超分辨率
本文提出了一个新的数据融合框架和正则化技术,用于热成像的导向超分辨率。该方法通过使用低成本、低分辨率的热传感器的测量数据,能够准确地生成高分辨率的热成像。同时,在缺少高分辨率 RGB 图像或低分辨率热图像的情况下,该方法仍然能够保持性能并具有健壮性。
Apr, 2023
基于 Swin transformers 的引导型 SR 架构 SwinFuSR,通过从高分辨率可见光图像提取信息,实现了对低分辨率红外图像的增强重建。
Apr, 2024
本文研究使用深度完全卷积网络来处理多模态多尺度遥感数据的语义标注,并采用有效的多尺度方法来提高语义标注的精度和深入研究数据的早期和后期融合方法,并在两个公共数据集上验证了我们的方法,表现出令人满意的结果。
Nov, 2017
本文综述了 RGB-DT 多模态数据融合领域的最新研究进展,提供了细致的方法分类和技术评估,讨论了校准、热成像、三维重建以及特征和深度学习算法等方面,并探讨了该领域的挑战和未来发展方向。
May, 2023
DeepIR 是一个新的热成像处理框架,结合了精确的传感器建模和深度网络图像表示,可用于开展无需训练数据和已知黑体目标的计算机视觉任务,并采用多张图像噪声抑制和超分辨率算法,实现高质量的非均匀校正。
Aug, 2021
该研究提出了一种可见光与近红外图像融合的方法,通过使用 RGBT 传感器获取的可见图像和近红外通道的信息,利用 SSIM 损失和边缘保护等技术进行融合,并在实验证明相比其他方法,该方法在多光谱融合方面取得了更好的结果。
Jul, 2023
本研究提出了一种基于文本引导的多模态图像融合方法,利用文本描述的高级语义结合红外和可见光图像的语义信息,为目标检测任务提供了更准确和鲁棒的结果。通过使用代码本来增强对融合动态的简明直观表达,并通过双层优化策略同时优化融合和检测问题,本研究取得了与现有方法相比更高的检测平均精度和视觉上优越的融合结果。
Dec, 2023
本论文研究了如何使用深度学习算法,特别是多重残差 U-Net 模型,对 MODIS LST 遥感图像进行超分辨率处理,从而实现将遥感图像从 1Km 提高到 250m 的像素分辨率。实验结果表明,多重残差 U-Net 模型表现优于其他目前主流的方法。
Feb, 2022
本文提出了一种基于双层优化的目标感知对抗学习(TarDAL)用于融合热红外和可见光图像的网络,结合了两者的共性和差异,同时建立了一套同时采集红外和光学图像的标定传感器,实现了对不同场景的目标检测并获得了较高性能。
Mar, 2022