Jun, 2024

基于即时 NGP 的 NeRF 可以压缩到什么程度?

TL;DR我们介绍了一种基于上下文的 NeRF 压缩 (CNC) 框架,利用高效的上下文模型提供储存友好的 NeRF 表示。我们通过挖掘层级和维度上的上下文依赖以减少信息熵,同时利用哈希碰撞和占用栅格作为强先验知识进行更好的上下文建模,实现了对 Synthesic-NeRF 和 Tanks and Temples 数据集上基准 Instant-NGP 的体积降低 100 倍和 70 倍,对 SOTA NeRF 压缩方法 BiRF 实现了 86.7% 和 82.3% 的存储空间减少。