AoSRNet:通过多知识整合的全能场景恢复网络
基于一个重新构建的沙尘风暴散射模型,我们提出了一种名为 AOSR-Net 的全能沙尘风暴去除网络模型,该模型通过整合中间参数直接建立图像映射关系,从而解决了沙尘图像增强领域中过度增强和弱泛化的问题。实验结果表明,该 AOSR-Net 模型在合成和真实沙尘风暴图像上显示出优于最先进算法的优越性。
Sep, 2023
提出了一种名为 Omni-SR 的新型架构,通过增强的 Omni Self-Attention 块和多尺度交互机制来改善轻量级 ViT 框架中 one-dimensional self-attention 建模的局限和同构聚合方案,并在图像超分辨率任务中获得最高记录性能。
Apr, 2023
本文提出了一种基于卷积神经网络的图像去雾模型 AOD-Net,其通过一种新颖的端到端设计,直接生成干净图像,进而通过与 Faster R-CNN 模型的级联来提高雾图上的目标检测性能。实验结果表明,该模型在合成和自然雾图数据集上均表现出比现有模型更卓越的 PSNR, SSIM 和主观视觉质量表现。
Jul, 2017
提出了一种新颖的多视角知识引导场景恢复网络 (MvKSR),用于在恶劣的天气条件下恢复退化图像。通过引导滤波和多视角特征融合模块,MvKSR 能够高效稳定地还原智能成像系统中恶劣场景下的退化图像。
Jan, 2024
本文提出了一种新的盲超分辨率框架 KOALAnet,它基于 Kernel-Oriented 自适应局部调整(KOALA)SR 特征,联合学习在实际图像中适应于空间变异模糊特征的空间变型退化和恢复核,可处理艺术照片中的故意模糊并产生最自然的结果。
Dec, 2020
该研究通过提出一个联合去马赛克和超分辨率算法,使用一种最新的端到端优化模型,基于 RDSEN 网络和 TRaGAN 对质量进行优化,证明了联合去马赛克和超分辨率方法的实用性和合理性,并在拍摄自 NASA 火星好奇号和标准数码照片上得到了显著改进。
Nov, 2019
提出了一种新的内容感知可扩展网络 CASNet,采用数据驱动的显着性检测器评估不同图像区域的重要性,并提出基于显着性的块比率聚合策略进行采样率分配,用联合可学习的生成矩阵生成任何 CS 比率的采样矩阵。同时,CASNet 拥有优化启发式恢复子网络和防止阻塞伪影的多块训练方案,该网络能够联合重建不同采样率采样的图像块。
Jul, 2022
提出了一种采用注意力模块引导合并 LDR 图像的高动态范围成像(AHDR)神经网络,此方法可避免光流估计误差引起的伪影问题,通过实验证明该方法能够在图像质量上达到最先进的水平。
Apr, 2019
针对传统基于帧的摄像机由于动态范围受限而导致的信息丢失,我们引入了生物启发式事件摄像机,并提出了一种新颖的结构感知融合网络(SFNet),通过跨模态融合从事件流中提取清晰和完整的物体结构,以补偿图像中的信息丢失,从而使网络能够获得对光照鲁棒的交通物体检测表示。
Nov, 2023
本文提出了一种轻量级网络,采用 Siamese Self-Attention Block (SSAB) 和 Skip-Channel Attention (SCA) 模块,提高了模型对全局信息的聚合能力,适用于高分辨率图像,并且基于对低光图像恢复过程的分析,提出了一个优于现有方法的二阶段框架,能够在保持最先进的恢复质量的同时,用最少的计算量恢复一张 UHD 4K 分辨率的图像。
Dec, 2023