深度上下文视频压缩
本文提出了一种新的框架,利用视频压缩的低延迟配置和上下文自适应视频融合方法,提高 BasicVSR ++ 方法的质量,已在 NTIRE22 挑战中得到验证,并在定量指标和视觉质量方面与之前的方法相比均有所提高。
Feb, 2023
本文提出了一种新的端到端学习的视频编码框架,将图像压缩通过条件编码进行泛化,允许处理同一编码器的帧内和帧间信息,并通过最小化速率失真成本进行训练,无需预训练或代理损失,其灵活性在三种编码配置下得到评估(全帧内、低延迟 P 和随机访问),并且表现出与 HEVC 视频编解码器一样具有竞争性的性能。
Apr, 2021
本文提出了一种端到端的学习视频压缩方法,利用多尺度时序上下文优化压缩方法,在压缩方案的编解码模块中填充学习到的时序上下文,以丢弃并行运算麻烦的自回归熵模型,实现更实用的解码时间,并将该方案与 H.264、H.265 以及 H.266 的官方参考软件进行比较,在 PSNR 和 MS-SSIM 方面均实现了比官方软件更高的比特率节省。
Nov, 2021
提出增强神经视频编解码器的上下文多样性,分别从时间和空间维度引入了层次质量模式、基于光流的编码框架以及四叉树分区以增加上下文多样性,实验结果表明,相比现有技术,该编解码器的比特率节省达到 23.5%,并在 PSNR 方面超越了传统编解码器 / ECM 的下一代。
Feb, 2023
本文提出了一种通过建模帧之间的条件熵来进行视频压缩的方法,与以往的学习方法不同,我们假设每个帧都使用一个独立的先进深度图像压缩器进行编码。我们的方法在保证解码速度的前提下,在高比特率的 UVG 视频中优于 H.265 和其他深度学习基线,在低帧率下优于所有视频编解码器,同时比使用自回归熵模型的深度模型解码速度快数千倍。
Aug, 2020
论文提出了一种基于深度学习的分布式视频编码架构,通过在解码器中使用有效的辅助信息生成模块,成功利用帧间相关性以提高压缩效率,同时,在编码速度相同的情况下,研究结果优于传统的分布式编码和基于 H.264 标准的压缩方法。
Mar, 2023
基于图像动画的视频压缩方法,通过使用预测编码方案和图像动画作为预测器,以及针对实际目标帧的残差编码,有效地提高压缩率,与 HEVC 和 VVC 相比可获得超过 70% 和 30% 的比特率增益。
Jul, 2023
该研究论文提出了一个视频轨道的图像压缩方法,采用了混合编码框架以及一些新技术,包括使用 Spynet 网络进行准确的运动矢量估计,引入上下文挖掘方案以充分利用空时信息,以及整合空时超分辨率模块提高速率失真性能。
Jan, 2024
通过特征调制,我们提出了一种强大的条件编码神经视频编解码器(NVC),解决了两个关键问题:如何在单一模型中支持宽范围的质量,并使 NVC 在长预测链下仍然有效。此外,我们设计了一个支持 RGB 和 YUV 颜色空间的单一模型。
Feb, 2024
本文提出了一种基于深度学习模型的视频压缩方法,其中利用神经网络的非线性表征能力和学习基于光流估计获取运动信息并重构当前帧的方法,同时采用两个 auto-encoder 风格的神经网络来压缩相应的运动和残差信息以共同优化所有组件,并通过单一损失函数来一起考虑减少压缩比特数和提高解码视频质量之间的权衡,实验证明该方法在 PSNR 方面优于广泛使用的 H.264 视频编码标准,在 MS-SSIM 方面甚至与最新的标准 H.265 相当。
Nov, 2018