本论文提出一种新的视频超分辨率算法,即同时处理多个连续视频帧的 spatio-temporal sub-pixel convolution networks,并采用了创新性的运动补偿和视频超分辨率算法,相比于单帧模型,网络可以减少 30%的计算成本同时保持相同的质量,或者在相似的计算成本下提供 0.2dB 的增益。在公开数据集上的结果表明,该算法在精度和效率方面均超过当前的最新性能。
Nov, 2016
本文提出了基于模糊内核建模方法的深度卷积神经网络模型,用于解决视频超分辨率问题,该模型包括运动模糊估计、运动估计和潜在图像恢复模块,实验证明该算法能够生成结构更清晰、细节更好的图像,并且性能优于当前先进的方法。
Mar, 2020
本研究提出了一种端到端可训练的帧递归视频超分辨率框架,使用先前的高分辨率估计来超分辨率下一个帧,自然鼓励时态一致结果并降低计算成本。
Jan, 2018
该论文提出了一种有效的三维卷积神经网络 3DSRnet,用于视频超分辨率,通过利用空时相干性来提高预测高分辨率帧的准确性,而且在不需要预处理的情况下优于最先进的方法,提出了一种新的处理场景变化的方法。
Dec, 2018
本文提出一种卷积神经网络,该网络的特征图在低分辨率空间中提取,使用高效的子像素卷积层将最终的低分辨率特征图升级到高分辨率输出,从而有效地将手工设计的双三次滤波器替换为针对每个特征图训练的更复杂的上采样滤波器,同时降低总体超分辨率操作的计算复杂度。该方法的实验结果表明,它在图像和视频方面的表现都比以前的基于 CNN 的方法好得多,并且速度快了一个数量级。
Sep, 2016
提出了一种基于循环的视频超分辨率方法,该方法有效地利用了前一帧的信息来超分辨率当前帧,包括两个流结构 - 细节块和隐状态适应模块,并在基准数据集上优于最先进的方法。
Aug, 2020
本文提出了一个名为运动自适应反馈单元(MAFC)的具有简单但高效的特点的模块,可以有效地捕获运动补偿并将其自适应地反馈给网络。通过实验证明,所提出的框架在复杂运动场景下可以获得更好的性能,并比目前最先进的方法表现更优秀。
Feb, 2020
通过引入物理信息的神经网络,本文提出了解决空时视频超分辨率问题的方法,该方法能够准确处理大运动中的运动估计和运动补偿问题,并在固定大小和连续空时视频超分辨率任务中超过同类技术。
Apr, 2024
本文提出一种深度学习方法用于图像超分辨率,采用卷积神经网络直接将低分辨率图片转换为高分辨率图片,能够实现较快的速度和超强的恢复质量,扩展支持三种颜色通道同时处理。
Dec, 2014
提出了一种新颖的视频超分辨率方法,利用具有循环编码器 - 解码器模块的迭代背投影网络从连续视频帧中集成时空上下文信息,通过迭代反向投影框架,无需将帧堆叠在一起,实现对目标帧的高分辨率重建。
Mar, 2019