Jul, 2022

混合时空熵建模用于神经网络视频压缩

TL;DR本文提出了一种强大的熵模型,能够高效地捕捉视频中的空间和时间依赖关系,使用潜在先验来减少时间冗余,使用双重空间先验来并行地减少空间冗余。此外,该熵模型还具有内容自适应量化机制,有助于编解码器实现平滑的速率调整,并通过动态位分配改善最终的速率失真性能。实验结果表明,使用该熵模型作为支撑,与最高压缩比配置下的H.266(VTM)相比,我们的神经编解码器可以在 UVG 数据集上实现18.2%的比特率节省,这是神经视频编解码器发展的新里程碑。