重温低级视觉中的隐式神经表示
通过利用神经网络通过隐式连续函数参数化数据,隐式神经表示(INRs)在场景重建和计算机图形学中显示出显著结果,本论文综述了 INR 模型在医学成像领域的应用,并讨论了 INRs 的优势、局限性以及在医学成像数据中的挑战和考虑因素,同时提出了未来的研究方向和机会。
Jul, 2023
本文介绍了 Implicit Neural Representations (INRs) 的概念,并提出了 inr2vec 框架作为一种有效的在深度学习流程中解决 INRs 表示的下游任务的方法。
Feb, 2023
隐式神经表示(INR)已成为计算机视觉和计算成像中解决反问题的强大工具。在线性反问题背景下,我们研究了使用单隐藏层 ReLU 激活和傅里叶特征层的广义权重衰减正则化方法,来从低通傅里叶系数恢复连续域图像的采样要求,验证了我们的理论,并展示了 INR 在超分辨恢复更实际的连续域幻影图像上的性能。
May, 2024
通过在学习过程中采用来自预测和监督信号的均值作为监督信号的替代,我们提出了一种用于正则化隐式神经表示模型(INR)在图像去噪中的通用方法,从理论上证明这样的简单迭代替代可以逐渐增强监督信号的信噪比,从而有利于 INR 模型的学习过程,实验证明采用提出的方法可以有效地正则化 INR 模型,缓解过拟合,并提高图像去噪性能。
Jan, 2024
本文提出了一种名为 Rapid-INR 的创新方法,利用 INR 对图像进行编码和压缩,从而加速计算机视觉任务中的神经网络训练;该方法可以将整个数据集直接存储在 GPU 上,并提出了迭代动态剪枝和逐层量化来进一步增强压缩效果,并在图像分类任务中证明了其可行性。
Jun, 2023
INFusion 是一种技术,通过使用预训练的扩散模型,为基于学习的隐式神经表示(INRs)的优化提供正则化,以改善图像重建。2D 实验证明了使用我们提出的扩散正则化改进了 INR 训练的效果,而 3D 实验则证明了在 256x256x80 大小的 3D 矩阵上使用扩散正则化进行 INR 训练的可行性。
Jun, 2024
本文提出了 Conv-INR,这是第一个完全基于卷积的 INR 模型,相较于现有的基于多层感知机的 INR 模型,Conv-INR 具有更好的表示能力和可训练性,同时能够有效地学习邻近坐标和高频组成部分。通过广泛的实验验证了 Conv-INR 在图像拟合、CT/MRI 重建和新视角合成等四个任务中明显优于现有的基于多层感知机的 INR 模型,而且在不引入额外推理成本的情况下,还提出了三种进一步增强 vanilla Conv-INR 性能的重新参数化方法。
Jun, 2024
本文从图像压缩的角度出发,探索了 INRs 的作用,提出了基于 INRs 的全面压缩流水线并进行了广泛的消融研究,结果表明,该方法表现优异,且与专门为图像设计的常用压缩算法竞争力相当,接近基于率失真自编码器的最新学习方法。
Dec, 2021
本文提出了一种新的 INR 子优化集成架构来解决现有的训练过程冗长和计算资源占用高问题,该架构将表示任务分解成几个独立子网络完成,并建立了优化算法以找到子网络的最优结构。仿真结果表明,该架构具有更少的浮点运算次数和更短的训练时间,并在峰值信噪比方面具有比同类产品更好的性能。
Oct, 2021
本文引入 HyperINR,一种新颖的超网络架构,通过利用多分辨率哈希编码单元的集合,直接预测一个紧凑的 INR 的权重,从而提高了 INR 的推理性能和支持交互式虚拟现实。
Apr, 2023