本文提出了一种基于 Frequency-Transformer 的压缩视频超分辨率方法,通过在空间、时间、频率域进行自注意力机制,有效地提取并转移高质量纹理进行视频帧增强和恢复。实验结果表明,该方法在两个广泛使用的视频超分辨率基准测试中均表现优于现有技术,并且在无损和有损视频上均具有明显的视觉优势。
Aug, 2022
本文提出了一个名为 STARnet 的模型,旨在通过同时提高空间分辨率和插值帧率来解决空时超分辨率问题,并利用时间和空间之间相互信息关系的优势,提供更加准确的运动信息和像素对齐。该模型能够有效提高空时、空间和时间视频超分辨率的性能。
Mar, 2020
文章提出了一个基于稀疏表示和压缩感知的超分辨率框架,用于在侦察和监视应用中对可扩展视频进行处理,实验结果表明,该框架具有更高的压缩率和更高的视频质量,是一种有效的压缩率更高、图像质量更优的视频处理算法。
Jul, 2017
本文提出了一个联合 VFI 和 SR 的框架,用于将 2K 30fps 的视频升级到 4K 60fps。其中,采用了一种新颖的训练方案,该方案使用多尺度时间损失对输入视频序列进行时间规范化,可以应用于任何一般的视频相关任务。通过大量实验对所提出的结构进行了深入研究。
Dec, 2019
本文提出了一个一阶段时空视频超分辨率框架,该框架通过特征时间插值网络进行局部时间上下文的丢失 LR 视频帧,然后提出了一个可变形 ConvLSTM 来对齐和聚合全局时空信息,并最终采用深度重建网络预测 HR 慢动作视频帧。经实验证明,该方法不仅实现了更好的定量和定性性能,而且比最近的两阶段最先进方法 (DAIN + EDVR 和 DAIN + RBPN) 更快三倍以上。
Feb, 2020
本文提出了一种单阶段空时视频超分辨率框架,通过特征时间插值模块临时插入缺失的低分辨率帧特征来捕捉局部的时间上下文,从而直接从低分辨率和低帧率视频中重建出高分辨率慢动作视频序列,并在广泛使用的基准测试中表现出良好的质量和速度。
Apr, 2021
本文提出了一种可行的空时视频超分辨率(STVSR)框架,以解决鲁棒的视频采集中模糊、模糊和低分辨率等挑战,提供优异的定量测量和视觉质量表现。
Jul, 2022
通过选择适当的处理尺度,提出了一种自适应选择子网络的 SAFA 网络,用于进行时空视频超分辨率(STVSR)任务,取得了较好的性能。
Oct, 2023
本研究开发了一个基于不同压缩标准的视频数据集,用于评估 17 种最先进的超分辨率模型的性能,并通过众包对比得出了适用于压缩视频放大的客观质量评估指标。
May, 2023
本研究提出了一种端到端可训练的帧递归视频超分辨率框架,使用先前的高分辨率估计来超分辨率下一个帧,自然鼓励时态一致结果并降低计算成本。
Jan, 2018