Nov, 2023

高效的学习图片压缩的 Corner-to-Center 长距离上下文模型

TL;DR在学习图像压缩框架中,上下文模型在捕捉潜在表示之间的依赖关系方面起到关键作用。为了减少串行自回归上下文模型导致的解码时间,提出了并行上下文模型作为一种替代方法,在解码阶段只需要两个传递,从而方便实现真实场景中的高效图像压缩。然而,由于其不完整的因果上下文,会导致性能下降。针对这个问题,我们对现有的并行上下文模型中观察到的性能下降进行了深入分析,着重从信息的数量和质量两个方面进行研究。基于此分析,我们提出了基于角到中心的变压器上下文模型 (C^3M),旨在增强上下文和潜在预测,并提高速率 - 失真性能。具体来说,我们利用基于对数的预测顺序,逐步从角到中心预测更多的上下文特征。此外,为了扩大分析和合成变换中的感受野,我们在编码器 / 解码器中使用了长程交叉注意力模块 (LCAM),通过在不同通道中分配不同的窗口形状来捕捉远程语义信息。广泛的实验评估表明,所提出的方法是有效的,并且优于最先进的并行方法。最后,根据主观分析,我们建议在基于变压器的图像压缩中改进细节表示是一个值得探索的方向。