透过循环隐空间传播实现高效视频超分辨率
通过提出二阶网格传递和流引导可变对齐的方法重新设计 BasicVSR,强化循环框架,更有效地利用错位视频帧中的时空信息和对齐,使模型更好地推广到其他视频恢复任务中,如压缩视频增强。在类似的计算限制下,BasicVSR++ 的 PSNR 比 BasicVSR 高 0.82db。
Apr, 2021
通过引入物理信息的神经网络,本文提出了解决空时视频超分辨率问题的方法,该方法能够准确处理大运动中的运动估计和运动补偿问题,并在固定大小和连续空时视频超分辨率任务中超过同类技术。
Apr, 2024
该研究提出了一种新的基于双向交互的有效和高效的时空视频超分辨率方法,并设计了混合融合模块,用于聚合和提炼信息以改进空间信息和重构高质量视频帧,实验表明,我们的方法在效率上优于现有的方法并降低了约 22% 的计算成本。
Jul, 2022
本文提出了一个一阶段时空视频超分辨率框架,该框架通过特征时间插值网络进行局部时间上下文的丢失 LR 视频帧,然后提出了一个可变形 ConvLSTM 来对齐和聚合全局时空信息,并最终采用深度重建网络预测 HR 慢动作视频帧。经实验证明,该方法不仅实现了更好的定量和定性性能,而且比最近的两阶段最先进方法 (DAIN + EDVR 和 DAIN + RBPN) 更快三倍以上。
Feb, 2020
本文提出了一种高效的时空超分辨率方法,结合视频超分辨率和视频帧插值模型,通过利用二次建模的低分辨率空间插值和基于双线性上采样的高分辨率合成方法,在 REDS STSR 验证集中优于当前最先进的模型。
Apr, 2021
我们提出了一种协作反馈辨别(CFD)方法来纠正对齐特征的不准确性,并对更好的视频重建建模长程的空间和时间信息。定量和定性实验表明,我们的方法可以改善现有 VSR 模型的性能,同时保持较低的模型复杂性。
Apr, 2024
本文提出一种基于时间差建模的视频超分辨率方法,通过不同的接受野分别处理两个像素子集以提取互补信息,并计算高频域中连续帧的差异来利用中间结果进一步增强 SR 结果
Apr, 2022