通过引入 Temporal Conditioning Module 和 Frame-wise Bidirectional Sampling,本文提出了一种基于 Diffusion Models 的 Video Super-Resolution 方法,显著提高了视频的感知质量。
Nov, 2023
本文提出了一种新颖的循环残差网络模型用于视频超分辨率,该模型相比于其他几种建模方法具有更高的计算效率和更好的超分辨率效果,取得了当前最好的结果。
Aug, 2020
本论文提出了一种深度生成对抗网络用于超分辨率,考虑了感知与失真之间的权衡,采用传统内容损失的基础上,使用离散余弦变换系数损失和差分内容损失来考虑内容感知,实现高分辨率图像的恢复。实验结果表明该模型在恢复图像的视觉效果和失真程度方面具有良好的性能,是一种有效的感知超分辨率应用算法。
Sep, 2018
本文利用深度递归神经网络,结合短期、长期以及感知上的损失,为视频处理提供了一种基于帧的将原始视频和处理后的视频作为输入,生成时间上连贯的视频的方法,实现了对多种需求的处理,且无需光流计算,具有实时性能。
Aug, 2018
通过文本引导的潜在扩散框架,实现视频升尺度,并在保持时域一致性和质量平衡之间提供更大灵活性。
Dec, 2023
本文提出了 SRGAN 框架,通过引入对抗性损失和感知损失函数,成功应用 GAN 进行图像超分辨率,能够生成 4 倍放大因子下的自然真实图像。大量实验和 MOS 测试证明 SRGAN 在视觉效果上具有显著的优势。
Sep, 2016
该研究探讨了一种使用感知损失函数训练卷积神经网络进行图像转换任务的方法,在图像风格迁移和单一图像超分辨率方面获得了较好的实验结果。
Mar, 2016
本研究提出了一种端到端可训练的帧递归视频超分辨率框架,使用先前的高分辨率估计来超分辨率下一个帧,自然鼓励时态一致结果并降低计算成本。
Jan, 2018
这篇论文总结了使用深度学习算法,如生成对抗网络,进行超分辨率图像和视频研究的最新进展,提供了改进图像和视频质量的方法,如递归学习、新颖的损失函数、帧率增强和注意力模型集成。这些进展对于增加低分辨率视频的视觉清晰度和质量具有巨大潜力,可应用于监控技术、医学成像等多个领域。此外,这个集合还深入研究了生成对抗网络的更广泛领域,探讨了它们的原理、训练方法以及在各个领域的应用,同时强调了人工智能领域中不断发展和变化的挑战与机遇。
VideoGigaGAN 是一种新的生成 VSR 模型,能够产生具有高频细节和时间一致性的视频。该模型通过引入几个关键技术来显著改善视频上采样的时间一致性,与先前的 VSR 方法不同,VideoGigaGAN 生成具有更精细外观细节的时间一致视频。
Apr, 2024