EgoVSR:面向高质量自我中心视频超分辨率的研究
本研究提出 DynaVSR 框架,采用元学习技术,在实际视频 SR 场景下实现了较快速的降采样模型估计和自适应学习,并与视频 SR 网络无缝结合,实现了比现有的盲目 SR 方法更快的推理时间和更高的性能提升。
Nov, 2020
该研究提出了一种实用的盲自适应卫星视频超分辨率算法(BSVSR),通过粗到精的方式考虑像素级模糊程度,探索更多的锐度线索,并使用金字塔空间转换模块在多层次领域中调整锐度中间特征的解空间,从而在模拟和实际卫星视频上表现出色,优于最先进的非盲和盲自适应超分辨率模型。
Jan, 2024
本研究提出了一种新的基于 Transformer 模型的立体视频超分辨率方法,利用空间 - 时间卷积自注意力和光流特征对立体一致性和帧序一致性进行处理,使用视差注意机制融合立体视点,对新收集的 SVSR-Set 数据集进行了广泛实验,取得了与最新方法相媲美的结果。
Apr, 2022
使用 Segment Anything Model 为基础的语义感知的先验知识,通过 SAM-guidEd refineMent 模块 (SEEM) 来提高视频超分辨率效果,并在 EDVR 和 BasicVSR 等现有方法中都得到了一致的提升,同时提高了性能与参数数量平衡调整的灵活性。
May, 2023
本文研究解决现实世界中动画视频超分辨率(VSR)的难题,并揭示了实用动画 VSR 的三个关键改进:通过学习基本运算符来改进基本降质操作生成过程中的能力,使用 AVC 数据集进行综合训练和评估,以及研究有效的多尺度网络结构。我们的 AnimeSR 方法能够有效和高效地恢复现实世界中低质量的动画视频,并实现了优于以往最先进方法的性能。
Jun, 2022
该论文提出了一种随机洗牌方法来模拟真实的降级因素并在合成的数据集上训练深度神经网络,使其在真实世界的视频超分辨率方面表现更好。结果显示,相较于 RealBasicVSR 在 NRQM 方面提高了 7.1%,相较于 BSRGAN 提高了 3.34%。同时,该论文也提出了一个新的包含高分辨率真实视频的数据集,可作为基准测试的共同参照。
May, 2023
该研究提出利用引用视频进行超分辨率处理的引用视频超分辨率(RefVSR)网络模型,实验结果表明,该模型在三个摄像头的超宽视频三重组成的数据集上表现出了最先进的 4x 超分辨率性能。
Mar, 2022
该研究介绍了一种优化的框架,用于联合处理焦点去模糊(重新聚焦)和视频超分辨率(VSR)的任务。该方法利用新颖的映射引导变换器和图像传播,有效地利用焦点模糊的连续空间变化,并修复录像。还引入了一种流重新聚焦模块,以有效地对齐模糊和清晰领域之间的相关特征。此外,提出了一种生成合成焦点模糊数据的新技术,扩展了模型的学习能力,包括更广泛的内容。该研究通过对 DAVIS-Blur 数据集进行综合实验,证明了该方法的优越性。与现有的视频恢复方法相比,我们的方法平均峰值信噪比性能提高了 1.9dB 以上,达到了最先进的结果。我们的源代码将在此 https URL 中提供。
Jul, 2024
该研究提出了一种基于视频语义的超分辨率方法,通过引入语义先验信息并结合像素级特征,实现了准确的帧间对齐,从而在视频超分辨率任务中获得了优于现有方法的结果。
Dec, 2023
本文提出了基于模糊内核建模方法的深度卷积神经网络模型,用于解决视频超分辨率问题,该模型包括运动模糊估计、运动估计和潜在图像恢复模块,实验证明该算法能够生成结构更清晰、细节更好的图像,并且性能优于当前先进的方法。
Mar, 2020