面向遥感全色图像融合的内容自适应非局部卷积
研究使用现有卷积神经网络(ConvNets)的三种策略:完全训练、微调和使用ConvNets作为特征提取器,并在使用三个遥感数据集进行了实验,结果发现对ConvNets进行微调是最佳的策略,使用微调后的ConvNets特征与线性SVM结合可以获得最佳结果,同时也在三个数据集上取得了最先进的结果。
Feb, 2016
本文探究了基于卷积神经网络进行遥感图像全色增色的各种不同架构和训练变化,提出了一种目标自适应使用模式,并开发了一种可在通用硬件上快速进行高质量 CNN 基础全色增色的软件工具。
Sep, 2017
本文提出了一种新的自监督学习框架,将Pansharpening看作是一个彩色化问题,并在模型训练中引入噪声注入和对抗性训练,通过提高神经网络的分辨率实现卫星图像Pansharpening的高质量输出。
Jun, 2020
本文介绍了一种无监督的Pansharpening方法,通过结合扩散模型和低秩矩阵分解技术,将高分辨率全色(PAN)图像和低分辨率多光谱(LRMS)图像进行合并,以创建一张高分辨率多光谱(HRMS)图像。实验结果表明,该方法比传统基于模型的方法表现更佳,并且比基于深度学习的技术具有更好的泛化能力。
May, 2023
本文提出基于深度学习的无需全色图像的全色增强技术方法,通过内置基础边缘轮廓实现对全色图像的无需输入,该方法在高分一号和WorldView-4卫星上获得最佳增强效果。
Jun, 2023
提出了使用高分辨率多场景数据集PanBench和级联多尺度融合网络(CMFNet)进行高保真度的Pansharpening,通过对CMFNet进行大量实验证实其有效性,并开放了数据集、源代码和预训练模型以促进遥感领域的进一步研究。
Nov, 2023
提出了一种名为CrossDiff的跨预测扩散模型,利用自我监督的表示学习方法进行卫星图像的泛光锐化,通过两阶段的训练并与其他方法比较,实验证明了该模型的有效性和优越性,同时验证了其在其他卫星数据集上的泛化能力。
Jan, 2024
本文提出了一种高效的深度学习框架ELGC-Net,用于远程感知变化检测任务,并通过捕获丰富的上下文信息精确估计变化区域,减小模型尺寸,从而在遥感变化检测基准测试中取得了最新的最佳性能。
Mar, 2024
这篇论文介绍了一种用于遥感全色增强任务的空间-光谱集成扩散模型(SSDiff),该模型通过子空间分解的视角将全色增强过程视为空间和光谱成分的融合过程。SSDiff利用空间和光谱分支分别学习空间细节和光谱特征,然后采用设计的交替投影融合模块(APFM)来完成融合。此外,文章还提出了一种调制频率分布的分支间频率调制模块(FMIM)。SSDiff的两个组件通过一种类似分支交替微调方法的低秩适应(LoRA)来优化性能,更充分地捕捉分量区分特征。对WorldView-3、WorldView-2、GaoFen-2和QuickBird四个常用数据集进行的大量实验在视觉和定量上证明了SSDiff的优越性。
Apr, 2024
本研究解决了高分辨率全色图像与低分辨率多光谱或超光谱图像融合的挑战。提出了一种新颖的基于变分形式的深度展开方法,通过使用多头注意残差网络来利用图像自相似性,显著提高了融合图像的质量和通用性。实验结果显示,该方法在不同传感器配置下表现优越,有潜力在遥感图像处理领域产生重大影响。
Sep, 2024