SSPFusion:红外与可见光图像融合的语义结构保持方法
通过使用多个卷积核和注意力机制,我们提出了 AMFusionNet,一种创新的红外和可见图像融合方法,通过吸收红外图像的热力细节和可见源的纹理特征,我们的方法生成了丰富信息的图像。实验证明,我们的方法在质量和数量上优于现有的算法,并且公开可用数据集上的性能指标也显示了显著的改进。
Aug, 2023
提出了一种感知感知融合框架来提高对抗环境中的分割鲁棒性,通过系统分析图像融合的组成部分与对抗扰动下的分割鲁棒性的相关性,并提出一种基于分解结构的协同设计方法来平衡标准准确率和鲁棒性,以及一种自适应学习策略来提高图像融合的参数鲁棒性。实验结果表明,与先进竞争对手相比,在对抗场景中分割的 mIOU 提高了 15.3%。
Aug, 2023
提出了一种自适应多尺度融合网络(AMFusion),通过红外和可见图像的融合规则,分别调整光照分布和提高检测准确性,从而实现针对夜晚物体检测的性能提升。
Mar, 2024
本文提出一种基于红外和可见光图像的交互式多任务范式,通过特征筛选的融合子网和融合引导的交叉互补 SOD 子网相结合,进行物体定位和探测,同时提出交互式循环学习策略,以实现这两个任务的互相增强,取得了显著的效果。
May, 2023
将可见光和红外图像融合成一幅高质量图像是许多下游视觉任务中具有挑战性但关键的任务。本文提出了一种简单而有效的可见光和红外图像融合框架 SimpleFusion。该框架通过 Retinex 理论将可见光和红外图像分解成反射和光照部分,并进行相应元素的融合。整个框架采用两个简单的卷积神经网络设计,无需降采样,能够高效地执行图像分解和融合。此外,我们引入了分解损失和细节到语义损失来保留两种模态之间的互补信息进行融合。通过在具有挑战性的基准测试上进行广泛实验,验证了我们方法在之前最先进方法上的优越性。
Jun, 2024
基于双模性策略的先验语义引导图像融合方法提供了在智能交通系统中提高红外和可见光图像融合性能的新途径,通过设计并应用两个并行的语义分割支路和一种自适应调制机制,捕捉和整合了两个图像的重要的先验语义信息,并通过多级表示自适应融合模块进一步整合高层语义和细节,优于现有图像融合方法。
Mar, 2024
为了解决现有方法对全局空间信息的捕捉能力不足的问题,本文提出了一种考虑全局空间信息的显著性感知选择性状态空间融合模型(S4Fusion),通过设计跨模态空间意识模块(CMSA)和利用预训练网络感知融合图像中的不确定性来全面捕捉补充信息,并自适应地突出两幅图像中的显著目标,实验结果表明该方法能够产生高质量的图像并提升下游任务的性能。
May, 2024
本研究提出了一种基于文本引导的多模态图像融合方法,利用文本描述的高级语义结合红外和可见光图像的语义信息,为目标检测任务提供了更准确和鲁棒的结果。通过使用代码本来增强对融合动态的简明直观表达,并通过双层优化策略同时优化融合和检测问题,本研究取得了与现有方法相比更高的检测平均精度和视觉上优越的融合结果。
Dec, 2023
我们提出了一种多尺度双注意 (MDA) 框架,用于红外和可见光图像融合,在图像和块级别测量和整合互补信息,并通过损失函数在结构和特征级别进行融合。
Dec, 2023
利用贝叶斯融合模型,运用 EM 算法,对红外图像和可见光图像进行融合,通过加入 total-variation penalty 来增强目标的自动检测和识别系统,从而得到具有更丰富细节和高光目标的融合图像。
May, 2020