DIDFuse: 基于深度图像分解的红外和可见光图像融合
本文介绍了一种新的深度学习架构,用于红外和可见图像融合问题。相对于常规卷积网络,我们的编码网络由卷积层,融合层和稠密块组合而成,其中每个层的输出与每个其他层相连。我们尝试使用这种架构从源图像中获得更有用的特征。并且设计了两个融合层(融合策略)来融合这些特征。最后,使用解码器重建融合图像。与现有的融合方法相比,所提出的融合方法在客观和主观评估方面均取得了最先进的性能。代码和预训练模型可在此 https URL 上获得。
Apr, 2018
本研究提出了一种基于无监督深度学习模型的多焦点图像融合方法,该方法通过训练编码器 - 解码器网络获得输入图像的深层特征,并使用这些特征及空间频率来衡量活动水平和决策图,最终应用一些一致性验证方法来调整决策图并得出融合结果,与之前的方法相比,该方法分析深层特征中的锐利外观而非原始图像中的锐利外观。实验结果表明,与现有的 16 种融合方法相比,该方法在客观和主观评估中均取得了最先进的融合性能。
Aug, 2019
本文提出了一种基于深度学习框架的有效图像融合方法,该方法能够将红外图像和可见光图像的所有特征生成单个图像。实验结果表明,该方法在客观评估和视觉质量方面均达到了最先进的性能。
Apr, 2018
提出了一种新颖的连续分解融合 (CDeFuse) 机制,通过多尺度相似性约束将原始的三部分分解扩展为更一般的 K 部分分解,并引入连续分解模块 (CDM) 以捕捉模态之间的互补信息,并通过一种新颖的分解损失函数和相应的计算优化策略,实现对分解过程的平滑进行。与之前的方法相比,CDeFuse 取得了可比较的性能。
Jun, 2024
我们提出了一种多尺度双注意 (MDA) 框架,用于红外和可见光图像融合,在图像和块级别测量和整合互补信息,并通过损失函数在结构和特征级别进行融合。
Dec, 2023
通过整合转换器模型的多尺度融合策略,本研究提出了一种新的图像融合方法,以克服使用评价指标作为损失函数所带来的局限性,并改善了整体方法的效果。
Feb, 2024
我们提出了一种基于分解和干扰感知的图像融合方法,通过对可见图像的散射程度进行像素分类并分离图像的细节和能量信息,实现对复杂场景中的干扰像素的更好识别,并结合自适应降噪和加权融合规则,得到在复杂场景下优越的图像融合效果。
Feb, 2024
MaeFuse 是一种用于红外和可见光图像融合的新型自编码器模型,利用预训练的 Masked Autoencoders (MAE) 编码器提取特征,在消除不同模态特征的领域差异和 MAE 编码器引起的块效应的同时,利用引导式训练策略逐步增强融合效果。
Apr, 2024
设计了一个可见 - 红外融合网络用于图像去雾,并通过多尺度深度结构特征提取模块和不一致性加权融合策略,充分利用红外图像的信息来改善效果,实验证明 VIFNet 优于现有方法。
Apr, 2024
将可见光和红外图像融合成一幅高质量图像是许多下游视觉任务中具有挑战性但关键的任务。本文提出了一种简单而有效的可见光和红外图像融合框架 SimpleFusion。该框架通过 Retinex 理论将可见光和红外图像分解成反射和光照部分,并进行相应元素的融合。整个框架采用两个简单的卷积神经网络设计,无需降采样,能够高效地执行图像分解和融合。此外,我们引入了分解损失和细节到语义损失来保留两种模态之间的互补信息进行融合。通过在具有挑战性的基准测试上进行广泛实验,验证了我们方法在之前最先进方法上的优越性。
Jun, 2024