ECNR: 高效压缩的时间变动容积数据神经表示
提出了一种新的隐式神经表示压缩方法,利用 Lanczos 降采样方案、SIREN 深度网络和 SRDenseNet 高分辨率方案,实现了高压缩比和良好的图像重建质量,同时降低了训练时间和 GPU 内存成本。
Mar, 2024
我们提出了一种利用坐标网络和多分辨率哈希编码对体积数据进行压缩和表示的高效方法,通过学习空间坐标和强度值之间的映射,实现有效的压缩,比较了不同编码方案,并展示了多分辨率哈希编码在压缩质量和训练效率方面的优越性,同时借助优化型元学习,特别是使用 Reptile 算法,学习适用于体积数据的神经表示的权重初始化,从而在优化过程中实现更快的收敛,此外,我们与最先进的方法进行比较,展示了改进的图像质量和压缩比,这些发现突显了利用基于坐标的网络和多分辨率哈希编码进行高效准确的体积数据表示的潜力,为大规模数据可视化和其他应用的进展铺平了道路。
Jan, 2024
用深度神经网络中参数对数据进行压缩的隐式神经表示(INR)是一种有前景的数据压缩技术,提出了一种基于专家组混合理论的新型隐式神经压缩方法 MoEC,通过自动分配 INR 给场景中的 3D 点,可以自适应地找到最佳分区并在海量多样的生物医学数据上实现了与现有方法相比的最新研究成果。
Dec, 2023
该研究论文提出了一种针对功能磁共振成像(fMRI)数据的压缩新模式,基于隐式神经表示(INR),通过去除时间序列中的各种冗余,包括空间相关建模、分解可重用的神经激活模式以及描述区域间相似性的适当初始化和非线性融合,成功结合了 fMRI 数据的独特特征,并在公开数据集上的实验结果表明了该方法的有效性,在传统图像质量评估指标和 fMRI 下游任务中超过了最先进的算法。该论文为在低带宽和高保真度下共享海量 fMRI 数据铺平了道路。
Nov, 2023
本文提出了一种使用隐式神经表示法来压缩三维标量场的方法,通过将标量场表示为学习到的函数,通过设置神经网络的权重数小于输入大小,压缩表示方法成为函数逼近,结合网络权重的精细量化,实现了高度紧凑表示,胜过了现有的体积压缩方法,并对网络设计选择对压缩性能的影响进行了研究。
Apr, 2021
该论文提出了一种针对基于网格的 NeRF 模型的效率压缩方法,使用非线性变换编码范式和神经压缩对模型的特征网格进行压缩,引入重要性加权的失真率目标和利用掩蔽机制的稀疏熵模型以利用潜在特征网格的空间不均匀性,实验证明该方法在基于网格的 NeRF 压缩效率和重建质量方面优于现有工作。
Jun, 2024
介绍了一种基于内涵神经表征(INR)的模态不可知神经压缩算法,使用变分压缩的方法优化了 INR 的表征能力,其在多种模态的数据集中表现出色,且在 JPEG 2000、MP3 和 AVC/HEVC 编码技术等领域实现了优于其他 INR 技术的性能。
Jan, 2023
本文提出了一种基于张量网络的压缩算法,能够显著地降低神经网络的参数量,从而提高其压缩效果和泛化性能。实验证明,该算法可将包含上千万参数的 VGG-16 模型的卷积层压缩为仅包含 632 个参数的张量网络,同时提升在 CIFAR-10 数据集上的测试准确率。该算法可被看作是一种高效的神经网络参数压缩方案,能够充分挖掘神经网络的可压缩性。
May, 2023