基于深度学习框架的红外和可见光图像融合
将可见光和红外图像融合成一幅高质量图像是许多下游视觉任务中具有挑战性但关键的任务。本文提出了一种简单而有效的可见光和红外图像融合框架 SimpleFusion。该框架通过 Retinex 理论将可见光和红外图像分解成反射和光照部分,并进行相应元素的融合。整个框架采用两个简单的卷积神经网络设计,无需降采样,能够高效地执行图像分解和融合。此外,我们引入了分解损失和细节到语义损失来保留两种模态之间的互补信息进行融合。通过在具有挑战性的基准测试上进行广泛实验,验证了我们方法在之前最先进方法上的优越性。
Jun, 2024
本文介绍了一种新的深度学习架构,用于红外和可见图像融合问题。相对于常规卷积网络,我们的编码网络由卷积层,融合层和稠密块组合而成,其中每个层的输出与每个其他层相连。我们尝试使用这种架构从源图像中获得更有用的特征。并且设计了两个融合层(融合策略)来融合这些特征。最后,使用解码器重建融合图像。与现有的融合方法相比,所提出的融合方法在客观和主观评估方面均取得了最先进的性能。代码和预训练模型可在此 https URL 上获得。
Apr, 2018
通过使用多个卷积核和注意力机制,我们提出了 AMFusionNet,一种创新的红外和可见图像融合方法,通过吸收红外图像的热力细节和可见源的纹理特征,我们的方法生成了丰富信息的图像。实验证明,我们的方法在质量和数量上优于现有的算法,并且公开可用数据集上的性能指标也显示了显著的改进。
Aug, 2023
提出了一种自适应多尺度融合网络(AMFusion),通过红外和可见图像的融合规则,分别调整光照分布和提高检测准确性,从而实现针对夜晚物体检测的性能提升。
Mar, 2024
我们提出了一种多尺度双注意 (MDA) 框架,用于红外和可见光图像融合,在图像和块级别测量和整合互补信息,并通过损失函数在结构和特征级别进行融合。
Dec, 2023
本研究提出了一种基于文本引导的多模态图像融合方法,利用文本描述的高级语义结合红外和可见光图像的语义信息,为目标检测任务提供了更准确和鲁棒的结果。通过使用代码本来增强对融合动态的简明直观表达,并通过双层优化策略同时优化融合和检测问题,本研究取得了与现有方法相比更高的检测平均精度和视觉上优越的融合结果。
Dec, 2023
本文提出一种基于自编码器的图像融合网络,通过分解图像特征,实现融合的可靠性和细节纹理信息的丰富性,取得了较好的实验效果和鲁棒性。
Mar, 2020
利用贝叶斯融合模型,运用 EM 算法,对红外图像和可见光图像进行融合,通过加入 total-variation penalty 来增强目标的自动检测和识别系统,从而得到具有更丰富细节和高光目标的融合图像。
May, 2020
提出了基于深度特征和零相位分量分析(ZCA)的新型图像融合框架,实验结果表明该方法在客观评价和视觉质量方面均优于现有融合方法。
Jun, 2018