自由输入的多焦点图像融合的生成和重组
本文介绍了一种基于卷积神经网络的无监督端到端学习方法,可以直接从多焦点输入图像对中预测完全聚焦的输出图像,并利用图像结构相似性(SSIM)计算损失。实验结果表明,该方法在视觉质量和客观度量方面优于现有的最先进技术。
Jun, 2018
本研究提出了一种基于无监督深度学习模型的多焦点图像融合方法,该方法通过训练编码器-解码器网络获得输入图像的深层特征,并使用这些特征及空间频率来衡量活动水平和决策图,最终应用一些一致性验证方法来调整决策图并得出融合结果,与之前的方法相比,该方法分析深层特征中的锐利外观而非原始图像中的锐利外观。实验结果表明,与现有的16种融合方法相比,该方法在客观和主观评估中均取得了最先进的融合性能。
Aug, 2019
本文提出了一个可用于衡量可见光和红外图像融合最新进展的代码库和基准,包含21对图像、20个融合算法和13个评价指标,通过大规模实验确定了有效的算法,同时对该领域的现状和未来前景进行了分析。
Feb, 2020
本文提出一种基于自编码器的图像融合网络,通过分解图像特征,实现融合的可靠性和细节纹理信息的丰富性,取得了较好的实验效果和鲁棒性。
Mar, 2020
本文提出了一种基于小波引导池化的融合网络(WavePF),在多个图像融合基准测试上表现出优越的性能,其通过小波池化编码器同时提取源图像的多尺度图像和细节信息,并使用空间注意力模型聚合这些显着特征。
May, 2023
通过考虑样本中光子传播的全局影响,并根据局部图像质量确定焦点和散焦,BigFUSE稳定了LSFM中的图像融合,该方法是第一个能够在融合信息时排除结构性伪影的双视图LSFM图像融合器。
Sep, 2023
在本文中,我们提出了一种多模态图像融合(MMIF)框架,旨在解决多个可见光图像与红外图像的焦点区域不同的融合问题。通过引入半稀疏平滑滤波器对图像进行分解为结构和纹理成分,并提出了一种新的多尺度操作器对纹理成分进行融合。同时,我们考虑结构成分中能量信息的分布,以实现场景亮度的有效捕捉和合理的对比度维持。实验结果表明,该算法在视觉感知和数量化评估方面均优于现有的方法。
Nov, 2023
本研究提出了一种新的小区域感知多焦点图像融合(MFIF)算法,用于增强物体检测能力,并通过像素属性增强、视觉显著性检测和三区域分割策略来精确确定像素焦点,进而设计了有效的像素选择规则以生成分割决策图并获得最终的融合结果。实验证明,该方法在主观和客观评估中能够准确检测到小且平滑的焦点区域,并改善物体检测性能,优于现有方法。源代码可在此链接获取:https://URL
Jan, 2024
通过一种基于一致性模型的新型融合方法,称为CoMoFusion,生成了高质量图像并实现了快速图像推理速度,在红外和可见图像融合领域的生成模型中,传统的基于生成模型的融合方法往往受到不稳定的训练和推理速度慢的困扰。
May, 2024