盲多帧视频去噪的自监督训练
本研究提出了一种基于预训练 AWGN 降噪网络的全盲视频降噪方法,采用一种新颖的帧对帧训练策略,实现了离线和在线两个版本。我们的降噪器可以在不知道视频来源的情况下使用,并达到了标准高斯噪声的最先进性能。在线过程仅需要几个帧即可实现广泛範围的扰动的令人满意的结果,同时在离线情况下性能更好。
Nov, 2018
利用单一图像进行自监督学习的提出方法利用门控卷积进行特征提取及无参考图像质量评估引导训练过程,采用伯努利采样从输入图像数据集中选择样本进行训练,并通过平均来自训练网络具有中断的各个实例的生成预测来产生相应结果,实验结果表明所提出的方法在合成和真实世界数据集上实现了最先进的去噪性能,突显了该方法作为各种噪声去除任务的有效性和实用性。
Jul, 2023
利用一种新颖的训练方法,基于有噪声图像的非组织集合来培训高质量的图像去噪模型,通过采用具有感受野盲区的网络来消除对参考数据的需要,提高了图像质量和训练效率,最终结果质量与最先进的神经网络去噪器相当。
Jan, 2019
本文介绍了一种新颖的无监督视频去噪深度学习方法,可帮助减轻数据稀缺问题并展现对不同噪声模式的稳健性,其方法包括三个模块:生成特征图的特征生成器、生成去噪但略带模糊的参考帧的去噪网络、重新引入高频细节的改进网络。通过利用基于坐标的网络,可以在保留去噪视频帧中高频细节的同时大大简化网络结构。广泛的试验表明,我们的方法可以有效地去噪现实中的钙成像视频序列,而无需先验知识和数据增强训练。
Jul, 2023
我们提出了一个新颖的鲁棒性框架,用于低级视觉任务,包括去噪、物体移除、帧插值和超分辨率,不需要任何外部训练数据,通过优化损坏的测试序列来直接学习神经模块的权重,利用视频的时空相干性和内部统计信息。通过引入一种利用视频在不同尺度上的空间 - 时间块重复性属性的新型空间金字塔损失函数,增强了对空间和时间域中非结构化噪声的鲁棒性。进而,我们的框架在输入帧降质方面具有高鲁棒性,并在去噪、物体移除和帧插值等后续任务上取得了最新成果。为了验证我们方法的有效性,我们在标准视频数据集如 DAVIS、UCF-101 和 VIMEO90K-T 上进行了定性和定量评估。
Dec, 2023
提出了一种基于盲点网络(blind-spot networks)的有条件盲点网络(C-BSN),采用随机子采样器进行空间去相关降噪,并在实际数据集上实现了最先进的性能。
Apr, 2023
提出了一种新颖的无监督网络来降噪显微镜视频,通过在底层卷积神经网络中整合时间信号滤波器,恢复被未知噪声类型破坏的显微镜视频。实验证实,该无监督模型在广泛的噪声场景中表现出色,尤其适用于显微镜视频。
Apr, 2024
该论文提出了一个名为 Blind2Unblind 的简单而有效的方法来克服盲点驱动去噪方法中的信息丢失问题,该方法采用全局感知掩模映射器和可重视损失来提高性能,实验表明该方法在合成和真实世界数据集上优于以前的工作。
Mar, 2022
本文提出了一种基于学习的方法,利用自监督学习优化现有的去模糊神经网络,通过强制输出与输入模糊图像匹配的光流,从而改善现有方法在多个数据集上的性能表现,同时保证了输出结果更贴近于潜在图像的内容。
Jan, 2018