流式神经图像
本文从图像压缩的角度出发,探索了INRs的作用,提出了基于INRs的全面压缩流水线并进行了广泛的消融研究,结果表明,该方法表现优异,且与专门为图像设计的常用压缩算法竞争力相当,接近基于率失真自编码器的最新学习方法。
Dec, 2021
本文介绍了一种新的数据表示方法——隐式神经表示法,经过结构优化后,可以对比JPEG等传统压缩方法得到更好的压缩效果,并提出了Meta-Learning算法在压缩和学习隐式神经表示方面的改进方法,实现了在不同数据模态下的卓越表现。
May, 2022
本文采用浅层甚至线性解码变换的方法来缩短神经图像压缩的解码复杂度,并通过加强编码器网络和迭代编码来提高压缩性能与解码复杂度之间的平衡,从而实现与传统ME-Scale超先验结构相当的失真压缩性能,同时将总解码复杂度降低80%。
Apr, 2023
本文研究了隐式神经表达在低层视觉问题中的应用,包括图像去噪、超分辨率、修补和去模糊等任务,并在实验中证明了其在资源有限情况下超过其他方法2dB以上的卓越表现。
Apr, 2023
本文提出了一种名为Rapid-INR的创新方法,利用INR对图像进行编码和压缩,从而加速计算机视觉任务中的神经网络训练;该方法可以将整个数据集直接存储在GPU上,并提出了迭代动态剪枝和逐层量化来进一步增强压缩效果,并在图像分类任务中证明了其可行性。
Jun, 2023
利用隐式神经表示( INRs )以欧几里得空间的多层感知器( MLP )对图像进行参数化,有效地在信号中表示了在常规离散表示中看不到的耦合空间和频谱特征,为以前不可能的连续信号处理和机器学习方法铺平了道路。本文研究了使用正弦激活函数的INRs在傅里叶理论方面的工作,并展示了与正弦函数相比,使用小波作为激活函数的优势,因为它们能够同时在频率和空间上进行本地化。我们在这项工作中探讨了这种INRs,并演示了它们如何从MLP的第一层中进行粗糙逼近从而解析出信号的高频特征。这导致了多种INR架构设计的建议,包括使用复数小波,解耦低通和带通逼近以及基于所需信号奇点的初始化方案。
Oct, 2023
通过引入神经代表视频的NeRV++,作为NeRV解码器架构的一种增强改进方法,使用可分离卷积残差块(SCRBs)和双线性插值跳跃层等特性,大幅提高了INR-based视频编解码的效果和表示能力,实现了与自动编码器基于视频编码相竞争的结果,迈向了INR-based视频压缩研究的重大进展。
Feb, 2024
该研究论文以压缩神经场为中心,介绍了自适应神经图像(ANI)的方法,能够在不损失细节和保持保真度的情况下将神经图像的每个像素位数降低了4倍,为发展压缩神经场提供了一个新框架。
May, 2024
该研究解决了传统视频压缩方法中冗余特征和帧间关系学习困难的问题。通过提取帧的高频分量和相邻帧特征的差异,提出了一种新的视频表示方法。实验结果表明,该方法在90%的视频中优于现有HNeRV方法,展示了良好的压缩性能与一致性。
Sep, 2024
本研究针对当前隐式神经表示(INR)的视频压缩方法未能充分利用信息保存的潜力这一问题,提出了一种通过参数重用增强网络参数存储的创新方案。实验结果表明,该方案显著提升了INR视频压缩的率失真性能,具有重要的应用前景。
Oct, 2024