SPC-NeRF:基于体素辐射场空间预测压缩
本文提出了 Re:NeRF 方法,用于在维持性能的同时降低 NeRF 模型的内存存储。与三种不同的 EXG-NeRF 体系结构在四个流行的基准测试中进行基准测试,显示了 Re:NeRF 的广泛适用性和有效性。
Oct, 2022
该论文提出了一种针对基于网格的 NeRF 模型的效率压缩方法,使用非线性变换编码范式和神经压缩对模型的特征网格进行压缩,引入重要性加权的失真率目标和利用掩蔽机制的稀疏熵模型以利用潜在特征网格的空间不均匀性,实验证明该方法在基于网格的 NeRF 压缩效率和重建质量方面优于现有工作。
Jun, 2024
通过使用非线性转换、量化和熵编码实现记忆高效的场景表示,我们提出了 NeRFCodec ,这是一个端到端的 NeRF 压缩框架,它利用预训练的神经 2D 图像编解码器对特征进行压缩,从而使得我们能在 0.5 MB 的内存预算下实现高质量的新视角合成。
Apr, 2024
我们介绍了一种基于上下文的 NeRF 压缩 (CNC) 框架,利用高效的上下文模型提供储存友好的 NeRF 表示。我们通过挖掘层级和维度上的上下文依赖以减少信息熵,同时利用哈希碰撞和占用栅格作为强先验知识进行更好的上下文建模,实现了对 Synthesic-NeRF 和 Tanks and Temples 数据集上基准 Instant-NGP 的体积降低 100 倍和 70 倍,对 SOTA NeRF 压缩方法 BiRF 实现了 86.7% 和 82.3% 的存储空间减少。
Jun, 2024
该论文提出了一种名为 Sparse Neural Radiance Grid 的新方法,它使用学习的稀疏体素网格表示,通过对神经辐射场(Neural Radiance Fields)进行预处理和存储(烘焙)来实现实时渲染。通过该方法,可以在以往的基础上保留了 NeRF 渲染精细几何细节和视图相关外观的能力,实现在普通硬件上进行实时渲染。
Mar, 2021
通过向量量化等方法,本文提出了一种名为 VQ-NeRF 的管线,以提高隐式神经表示的效果和效率,并通过多尺度采样和语义损失函数等方法来增强网络保留场景的细节和几何特征。在多个数据集上的评估结果表明,该方法在图像渲染质量和效率之间达到了最佳平衡,性能优于其他方法。
Oct, 2023
我们提出了一种超快速收敛的方法,通过从拍摄场景的一组图像中重建场景辐射场来最新的视点合成,该方法采用密度体素网格表示场景几何和 shallow network 表示复杂的视角相关的外观,同时采用了后激活插值和一些先验约束技术,从而使训练时间缩短到 15 分钟以内,并达到了前沿的质量水平。
Nov, 2021
通过提出一种新的编码 - 解码 - 微调流程,CodecNeRF 在保持 (或改善) 图像质量的同时,在常用的 3D 对象数据集(如 ShapeNet 和 Objaverse)上实现了超过 150 倍的压缩性能和 20 倍的编码时间缩短。
Apr, 2024
通过引入压缩感知型 NeRF 特征,该研究实现了在模型训练结束时导出经过压缩的特征网格,极大地减小了存储空间占用,而且不需要改变存储架构或原始 INGP 论文中的参数。
Oct, 2023
本研究提出了一种基于张量分解的显式神经场表示法,通过采用低秩近似的策略及动态调整模型的秩来实现精细度和模型大小的权衡,并可以将不同的模型进行组合从而达到压缩和构图能力的提升。
May, 2022