利用贝叶斯融合模型,运用 EM 算法,对红外图像和可见光图像进行融合,通过加入 total-variation penalty 来增强目标的自动检测和识别系统,从而得到具有更丰富细节和高光目标的融合图像。
May, 2020
将可见光和红外图像融合成一幅高质量图像是许多下游视觉任务中具有挑战性但关键的任务。本文提出了一种简单而有效的可见光和红外图像融合框架 SimpleFusion。该框架通过 Retinex 理论将可见光和红外图像分解成反射和光照部分,并进行相应元素的融合。整个框架采用两个简单的卷积神经网络设计,无需降采样,能够高效地执行图像分解和融合。此外,我们引入了分解损失和细节到语义损失来保留两种模态之间的互补信息进行融合。通过在具有挑战性的基准测试上进行广泛实验,验证了我们方法在之前最先进方法上的优越性。
Jun, 2024
该论文提出了一种名为 BusRef 的单一框架,解决了多模态相机工作时的图像配准和融合问题,同时引入了一种新的训练和评估策略,通过使用蒙版减少无法重构区域对损失函数的影响,大大提高了融合任务的准确性和鲁棒性,通过梯度感知的融合网络进一步提高了算法的性能。
Dec, 2023
提出一种语义结构保持的红外与可见光图像融合方法 (SSPFusion),通过结构特征提取器和多尺度结构保持融合模块,在保持语义结构一致性的基础上生成高质量的融合图像,提升下游计算机视觉任务的性能。实验结果表明该方法在定性和定量评估上优于八个先进的图像融合方法。
Sep, 2023
通过使用多个卷积核和注意力机制,我们提出了 AMFusionNet,一种创新的红外和可见图像融合方法,通过吸收红外图像的热力细节和可见源的纹理特征,我们的方法生成了丰富信息的图像。实验证明,我们的方法在质量和数量上优于现有的算法,并且公开可用数据集上的性能指标也显示了显著的改进。
Aug, 2023
设计了一个可见 - 红外融合网络用于图像去雾,并通过多尺度深度结构特征提取模块和不一致性加权融合策略,充分利用红外图像的信息来改善效果,实验证明 VIFNet 优于现有方法。
Apr, 2024
提出了一种考虑低光环境照明条件的光学和红外图像融合网络,利用自适应差分融合模块和显著目标感知模块,将提升过照明的红外和可见图像的显著特征有效地融合,生成高质量的融合图像,并验证其优于五种最先进的红外和可见图像融合方法。
本文提供了一个包含 100 对图像、16 种算法和 20 种评估指标的多曝光图像融合(MEF)基准,用于实现公平和全面的性能比较以及鉴定有效算法,从而促进该领域的发展。
Jul, 2020
提出了一种自适应多尺度融合网络(AMFusion),通过红外和可见图像的融合规则,分别调整光照分布和提高检测准确性,从而实现针对夜晚物体检测的性能提升。
Mar, 2024
我们提出了一种多尺度双注意 (MDA) 框架,用于红外和可见光图像融合,在图像和块级别测量和整合互补信息,并通过损失函数在结构和特征级别进行融合。