该研究利用自监督限制所提出的无监督去雨生成对抗网络 (UD-GAN) 解决了单幅图像去雨中标注 - 监督约束缺失等问题并在多种基准测试集和不同训练设置下表现出卓越的去雨效果。
Nov, 2018
本文介绍了我们团队在 CVPR 2023 UG$^{2}$+ Track 3 GT-Rain Challenge 中的解决方案,提出了一种高效的两阶段框架,利用低秩视频去雨方法生成伪 GT,再加以改进,使用大规模真实雨数据集进行预训练并在伪 GT 上进行微调,最终采用全面的图像处理器模块,我们的整体框架设计精心并能够处理在测试阶段提供的重雨和雾气序列。在平均结构相似性 (SSIM) 上获得第一名,在平均峰值信噪比 (PSNR) 上获得第二名。
May, 2023
本文提出了一种新的半监督视频去雨方法,其中采用动态雨生成器来适应雨层,以更好地描绘其深刻的特征。该方法具有良好的性能,并可同时编码雨渍的物理结构和时间连续性变化,通过设计不同的先验格式,充分利用标记合成和未标记真实数据之间的共同知识,使用蒙特卡罗 EM 算法进行求解。
Mar, 2021
提出了一种新的降雨去除方法,通过替换低质量特征的潜在高质量特征和引入闭环反馈精神解决模型误差和特征嵌入问题,实验结果表明该方法在基准数据集和真实数据集上优于现有的最新方法。
Jan, 2021
本文提出了一种高阶协同网络,其中包括多尺度紧凑约束和双向尺度内容相似度挖掘模块,有助于实现去雨滴效果的提高,并通过自我监督学习方法来提高模型性能。
Feb, 2022
提出一种利用半监督方法,在图像的着色和反照率层上操作,训练半监督网络用于图片合成,该方法可以有效提高 OpenGL 渲染等低质量合成图像的视觉逼真度。该方法通过两个阶段的管道来实现,即首先以物理学渲染为目标以有监督的方式预测准确的着色,然后再采用改进的 CycleGAN 网络进一步提高纹理和着色的逼真度。 在 SUNCG 室内场景数据集上进行的广泛评估表明,与其他最先进的方法相比,我们的方法可以产生更逼真的图像。此外,我们所生成的 “真实” 图像训练出的网络比领域适应方法预测出更精确的深度和法线,这表明提高图像的视觉逼真度可以比强加任务特定的损失效果更良好。
Mar, 2020
使用 GAN 将给定的标记遥感图像拓展成更大的数据集并评测其对于物体检测任务的性能提升。
Aug, 2019
对于深度去雨网络,简化训练数据复杂度有助于提高其的泛化能力,因为网络依靠更简单的元素最小化训练损失,从而避免过度拟合雨滴痕迹,提高了去雨效果。
本文提出了一种基于条件生成对抗网络的图像去雨算法 (ID-CGAN),以优化细化的损失函数为优化框架,考虑了定量、定性和辨别性能,经过测试,该方法在综合定量和视觉性能方面优于其他最新的基于单个图像去雨的方法。
Jan, 2017
提出了一种统一的无监督学习框架,结合了模型驱动的无监督优化方法和深度卷积神经网络,并利用该框架在只有少量真实雨天图像的情况下完成无监督训练和达到好的实现泛化和表征,从而实现对单幅图像中的雨痕进行有效去除。
Mar, 2022