实际应用视频去模糊:基准数据集和高效循环神经网络
本研究提出了一个新的基于事件的去模糊方法,通过利用不同空间和时间尺度的运动模糊信息,构建了一个适应实际场景的多尺度网络,通过自我监督学习来提高准确性,并引入一个包含多尺度模糊帧和事件的真实世界数据集以促进事件驱动去模糊研究。
Aug, 2023
本研究提出了使用深度神经网络结构 DeblurRNN 和 DeblurMerger 分别以序列和并行的方式利用成对图像中的噪声 / 模糊信息进行去模糊。使用梯度损失、对抗损失和谱归一化来提高训练。经过对合成数据集 GOPRO 和真实图像对的评估,结果表明所提出的方法在定性和定量上均优于现有技术。
Nov, 2019
本文提出了一种基于事件相机的深度学习方法,通过卷积循环神经网络和可微分方向事件过滤模块整合全局和局部尺度的视觉和时态知识,提取边界先验信息,从而达到了恢复运动模糊图像的最佳质量,适用于真实世界的运动模糊问题。
Apr, 2020
该研究介绍了一种优化的框架,用于联合处理焦点去模糊(重新聚焦)和视频超分辨率(VSR)的任务。该方法利用新颖的映射引导变换器和图像传播,有效地利用焦点模糊的连续空间变化,并修复录像。还引入了一种流重新聚焦模块,以有效地对齐模糊和清晰领域之间的相关特征。此外,提出了一种生成合成焦点模糊数据的新技术,扩展了模型的学习能力,包括更广泛的内容。该研究通过对 DAVIS-Blur 数据集进行综合实验,证明了该方法的优越性。与现有的视频恢复方法相比,我们的方法平均峰值信噪比性能提高了 1.9dB 以上,达到了最先进的结果。我们的源代码将在此 https URL 中提供。
Jul, 2024
提出了一种基于时空循环网络的在线视频去模糊方法,可以实时处理,通过引入动态时间混合来强制执行连续帧之间的时间一致性,在大范围内解决相机抖动和快速移动对象造成的模糊问题,并在实验评估中表现出优越性。
Apr, 2017
提出了一种名为 BSSTNet 的模型,它通过引入模糊图,将初始的密集注意力转化为稀疏形式,从而更全面地利用整个视频序列中的信息。BSSTNet 在变换器中使用了更长的时间窗口,利用较远帧中的信息来修复当前帧中的模糊像素,同时引入了由模糊图引导的双向特征传播,降低了由模糊帧引起的错误累积。实验结果表明,提出的 BSSTNet 在 GoPro 和 DVD 数据集上优于现有的方法。
Jun, 2024
本文介绍了一个称为 “SRN-DeblurNet” 的规模递归网络,该方法使用金字塔不同分辨率的 “粗到细” 方法逐步恢复锐化图像,在大规模模糊数据集上进行评估,结果显示我们的方法比现有方法在定量和定性上的呈现更好。
Feb, 2018