本文提出了一种新颖的循环残差网络模型用于视频超分辨率,该模型相比于其他几种建模方法具有更高的计算效率和更好的超分辨率效果,取得了当前最好的结果。
Aug, 2020
本研究提出了一种适用于视频超分辨率的循环神经网络(RNN)的训练策略,该策略可以有效和稳定地工作,与视频长度和动态性无关。通过训练一个 VSR 网络,该方法通过改变不同的 RNN 隐藏状态来稳定 VSR,并通过复用隐藏状态以降低计算成本。此外,通过帧数条件进一步提高训练稳定性。实验结果表明,所提方法在不同长度和动态性的视频中比基准方法表现更好。
Mar, 2024
通过图像预处理,设计了一种在处理现实世界视频超分辨率中平衡细节合成和伪影抑制的 RealBasicVSR 模型,并且提出了一种随机退化方案来降低训练时间,同时使用更长序列代替更大批次进行训练以提高模型的稳定性。此外,还创建了新的 VideoLQ 数据集来作为基准测试的公共基础。
Nov, 2021
该论文提出了一种有效的三维卷积神经网络 3DSRnet,用于视频超分辨率,通过利用空时相干性来提高预测高分辨率帧的准确性,而且在不需要预处理的情况下优于最先进的方法,提出了一种新的处理场景变化的方法。
Dec, 2018
本文研究解决现实世界中动画视频超分辨率(VSR)的难题,并揭示了实用动画 VSR 的三个关键改进:通过学习基本运算符来改进基本降质操作生成过程中的能力,使用 AVC 数据集进行综合训练和评估,以及研究有效的多尺度网络结构。我们的 AnimeSR 方法能够有效和高效地恢复现实世界中低质量的动画视频,并实现了优于以往最先进方法的性能。
Jun, 2022
本研究致力于加速 Super-Resolution Convolutional Neural Network,并提出了一个紧凑的 hourglass-shape CNN 结构,以实现更快,更好的图像超分辨率,通过在网络末端添加反卷积层并缩小输入特征维度和采用更小的滤波器尺寸和更多的映射层,实现了超过 40 倍的速度提升和优越的恢复质量。
Aug, 2016
本研究提出了一种基于轨迹感知 Transformer 的视频超分辨率方法,利用空间和时间的信息来实现视频帧的超分辨率,实验证明该方法优于现有的超分辨率模型。
Apr, 2022
VideoGigaGAN 是一种新的生成 VSR 模型,能够产生具有高频细节和时间一致性的视频。该模型通过引入几个关键技术来显著改善视频上采样的时间一致性,与先前的 VSR 方法不同,VideoGigaGAN 生成具有更精细外观细节的时间一致视频。
Apr, 2024
本研究采用 Transformer 对视频超分辨率问题进行了改进,引入了空时卷积自注意力层以利用数据位置信息,设计了双向光流驱动前馈层以发现不同视频帧之间的相关性并对齐特征,实验证明了这种方法的有效性。
Jun, 2021
通过引入物理信息的神经网络,本文提出了解决空时视频超分辨率问题的方法,该方法能够准确处理大运动中的运动估计和运动补偿问题,并在固定大小和连续空时视频超分辨率任务中超过同类技术。