本文提出了一种可行的空时视频超分辨率(STVSR)框架,以解决鲁棒的视频采集中模糊、模糊和低分辨率等挑战,提供优异的定量测量和视觉质量表现。
Jul, 2022
通过引入物理信息的神经网络,本文提出了解决空时视频超分辨率问题的方法,该方法能够准确处理大运动中的运动估计和运动补偿问题,并在固定大小和连续空时视频超分辨率任务中超过同类技术。
Apr, 2024
本文提出了一种使用 “时间调制网络” 的方法,结合弯曲卷积和局部时间特征比较模块来处理视频的短期和长期动作线索,以提高低分辨率和低帧率视频的空间和时间分辨率,实验结果表明,该方法的性能优于现有的 STVSR 方法。
Apr, 2021
本文提出了一个名为 STARnet 的模型,旨在通过同时提高空间分辨率和插值帧率来解决空时超分辨率问题,并利用时间和空间之间相互信息关系的优势,提供更加准确的运动信息和像素对齐。该模型能够有效提高空时、空间和时间视频超分辨率的性能。
Mar, 2020
提出了一种基于空间 - 时间变换器的方法来解决空间 - 时间视频超分辨率问题,相比于基于卷积神经网络的方法,这种方法不需要明确使用单独的构建模块进行时间插值和空间超分辨率,而是只使用一个端到端的转换器架构,并且具有更快的推理速度和更少的参数。
Mar, 2022
本研究提出了一种基于轨迹感知 Transformer 的视频超分辨率方法,利用空间和时间的信息来实现视频帧的超分辨率,实验证明该方法优于现有的超分辨率模型。
Apr, 2022
本文提出了一个一阶段时空视频超分辨率框架,该框架通过特征时间插值网络进行局部时间上下文的丢失 LR 视频帧,然后提出了一个可变形 ConvLSTM 来对齐和聚合全局时空信息,并最终采用深度重建网络预测 HR 慢动作视频帧。经实验证明,该方法不仅实现了更好的定量和定性性能,而且比最近的两阶段最先进方法 (DAIN + EDVR 和 DAIN + RBPN) 更快三倍以上。
Feb, 2020
本文提出了一种利用端到端深度学习网络框架,有效地融合视频超分辨率和帧插值,以实现时空视频上采样的新方法,通过提出的加权方案,在不需要显式运动补偿的情况下有效地融合输入帧,相较于基线模型,在减少计算时间(加快了 7 倍)和参数数量(减少 30%)的同时,实现更好的定量和定性结果。
Apr, 2020
本文提出了一个联合 VFI 和 SR 的框架,用于将 2K 30fps 的视频升级到 4K 60fps。其中,采用了一种新颖的训练方案,该方案使用多尺度时间损失对输入视频序列进行时间规范化,可以应用于任何一般的视频相关任务。通过大量实验对所提出的结构进行了深入研究。
Dec, 2019
本文提出了一个名为运动自适应反馈单元(MAFC)的具有简单但高效的特点的模块,可以有效地捕获运动补偿并将其自适应地反馈给网络。通过实验证明,所提出的框架在复杂运动场景下可以获得更好的性能,并比目前最先进的方法表现更优秀。