- DaBiT: 深度和模糊信息引导的变压器用于联合对焦和超分辨率
该研究介绍了一种优化的框架,用于联合处理焦点去模糊(重新聚焦)和视频超分辨率(VSR)的任务。该方法利用新颖的映射引导变换器和图像传播,有效地利用焦点模糊的连续空间变化,并修复录像。还引入了一种流重新聚焦模块,以有效地对齐模糊和清晰领域之间 - CVPR模糊感知时空稀疏变压器用于视频去模糊
提出了一种名为 BSSTNet 的模型,它通过引入模糊图,将初始的密集注意力转化为稀疏形式,从而更全面地利用整个视频序列中的信息。BSSTNet 在变换器中使用了更长的时间窗口,利用较远帧中的信息来修复当前帧中的模糊像素,同时引入了由模糊图 - VJT: 基于视频的联合任务模型:去模糊、低光增强和降噪
我们是第一次提出了一种高效的端到端视频转换器方法,用于视频去模糊、低光增强和去噪的综合任务。我们构建了一个新的多层转换器,每一层使用不同级别的模糊视频作为目标,以有效地学习视频的特征;此外,我们还设计了一种新的层间特征融合方案,以逐步学习视 - 基于混合 Transformer 的视频去模糊的长期锐利特征聚合
提出了一种利用混合 Transformer 进行特征聚合的视频去模糊方法,该方法通过利用邻近帧和当前清晰帧恢复模糊帧,对事件驱动视频去模糊也有优秀表现。
- ECCV探索模糊形成过程的实际视频去模糊
本文旨在探索如何通过模拟真实模糊的情况,让现有的视频去模糊模型在真实世界的模糊视频中也能很好地进行泛化,通过使用 RAW-Blur 管道中的模糊形成提示来模拟模糊,从而减少了使用合成数据带来的不利影响,并通过特定的拍摄参数进行改进。
- ECCV运动大小引导下的高效视频去模糊
提出了一种基于运动大小先验的深度学习视频去模糊技术,通过检测每一帧的像素级模糊程度,结合清晰帧区域的信息,生成像素运动大小先验,进而利用时空信息进行去模糊处理,实验结果表明该方法的有效性。
- ECCV视频去模糊的时空可形变注意力网络
提出了一种运用 Spatio-Temporal Deformable Attention Network (STDANet) 实现视频去模糊的方法,STDANet 不仅仅考虑图像中的流动信息,同时考虑图像中像素点的清晰度,从而使得方法得到的 - ECCV通过交替优化实现可解释的视频超分辨率
本文提出了一种可行的空时视频超分辨率(STVSR)框架,以解决鲁棒的视频采集中模糊、模糊和低分辨率等挑战,提供优异的定量测量和视觉质量表现。
- CVPR多尺度基于记忆的视频去模糊
本研究提出一种集成记忆模块、双向循环和多尺度策略的视觉去模糊算法,以提高视频去模糊精度。实验证明,该算法的性能优于其他同类算法,同时具有低的模型复杂度和推理时间。
- ICML视频去模糊的流引导稀疏变压器
本文提出了一种新的视频去模糊框架,Flow-Guided Sparse Transformer(FGST),基于自注意力模块,使用光学流矫正模糊,并采用重复嵌入机制加强长时间依赖关系,结果表明 FGST 在 DVD 和 GOPRO 数据集上 - AAAI使用多尺度双向传播的深度循环神经网络用于视频去模糊
使用多尺度双向传播的循环神经网络,提出一种解决视频去模糊的方案,并通过自行创建的真实世界数据集进行验证。
- 使用模糊不变运动估计和像素体积的循环视频去模糊
通过使用模糊不变的运动估计和像素体积来有效聚合多个视频帧的信息以消除视频模糊,本文提出了一种有效的循环视频去模糊网络,与最近使用深度学习的方法相比,在定量和定性方面均取得了最先进的性能。
- ECCV实际应用视频去模糊:基准数据集和高效循环神经网络
本文提出了一种基于残差稠密块和全局时空注意力模块的实时视频去模糊方法 (ESTRNN),并提供了一个新颖的真实世界基准数据集 (BSD),实验证明该方法在低计算成本下可以达到更好的去模糊效果比合成数据集具有更高的普适性。
- CVPRARVo: 学习视频去模糊时的全尺度体积对应
本文提出一种新的视频去模糊方法,利用特征空间中的模糊帧学习空间对应关系,通过构建像素之间的相关性体金字塔来构建远程像素对应,使用相关聚合模块最大化邻居与参考帧的像素对相关性来增强参考帧特征,然后将聚合后的特征馈入重构模块以获取恢复的帧。我们 - 通过逼真地建模双像素数据来学习减少焦外模糊
该研究提出一种通过合成数据生成具有现实意义的双像素数据,用于提升基于双像素数据捕获的单幅或多幅相机图像去模糊的结果,在视频去模糊的应用中具有广泛前景。
- CVPRNTIRE 2020 图像与视频去模糊挑战赛
该论文回顾了 NTIRE 2020 挑战赛关于图像和视频去模糊的评估结果和提出的解决方案,其中包括三个竞赛赛道,即图像去模糊,移动平台图像去模糊和视频去模糊,并介绍了这些竞争赛道的注册和最后测试的情况。成功的解决方案展示了当前图像和视频去模 - CVPR时序锐度先验下级联深度视频去模糊
本文提出了一种用于视频去模糊的简单而有效的深度卷积神经网络模型,该模型由中间潜在帧的光流估计和潜在帧恢复步骤组成,并开发了时间锐度先验以控制其性能表现。研究结果表明,该算法在基准数据集和实际视频上的表现优于现有的最先进方法。
- ICCV深度视频去模糊:细节决定成败
使用简单的基准卷积神经网络进行视频去模糊可以达到非常好的效果,但需要特别关注模型和训练过程中的细节,通过对这些关键细节的研究,可以将性能提升 3.15dB 以上,使其与最新的网络架构相媲美。
- ICCV视频去模糊的时空自适应滤波网络
提出了一种基于 STFAN、FAC 层和重构网络的视频去模糊算法,该算法能够对存在空间变异的模糊进行对齐和去模糊,实验结果表明该算法在准确性、速度和模型大小等方面均超过当前最先进的方法。
- 视频去模糊的对抗时空学习
利用改进的 3D 卷积对空间和时间领域进行联合建模,进而提高视频去模糊性能,在 GAN 模型中使用内容和对抗损失函数对模型进行训练,并称其为 DBLRGAN 模型,测试结果最先进。