基于隐式神经表示的图像去噪器的增强
介绍了一种新的图像降噪算法,该算法利用了隐式神经表示 (INRs) 在低噪声和真实噪声情况下具有先天降噪能力的特点,通过惩罚更深层次的权重增长来最大化这种天然的降噪能力,比现有的零样本降噪方法更优。
Apr, 2022
本文研究了隐式神经表达在低层视觉问题中的应用,包括图像去噪、超分辨率、修补和去模糊等任务,并在实验中证明了其在资源有限情况下超过其他方法 2dB 以上的卓越表现。
Apr, 2023
本文提出了一个称为隐式神经表示正则化器的正则化器 (INRR),以提高隐式神经表示 (INR) 的泛化能力。 INRR 通过将归一化的 Dirichlet 能量 (DE) 与 INR 集成来改善信号表示中的泛化性能,从而更好地集成了信号的自相似性和 Laplacian 矩阵的光滑度。作者进一步设计了一系列实验来论证 INRR 的性质,如收敛轨迹和多尺度相似性,并表明该方法可以提高其他信号表示方法的性能。
Mar, 2023
INFusion 是一种技术,通过使用预训练的扩散模型,为基于学习的隐式神经表示(INRs)的优化提供正则化,以改善图像重建。2D 实验证明了使用我们提出的扩散正则化改进了 INR 训练的效果,而 3D 实验则证明了在 256x256x80 大小的 3D 矩阵上使用扩散正则化进行 INR 训练的可行性。
Jun, 2024
本文提出了一种新的 INR 子优化集成架构来解决现有的训练过程冗长和计算资源占用高问题,该架构将表示任务分解成几个独立子网络完成,并建立了优化算法以找到子网络的最优结构。仿真结果表明,该架构具有更少的浮点运算次数和更短的训练时间,并在峰值信噪比方面具有比同类产品更好的性能。
Oct, 2021
本文从图像压缩的角度出发,探索了 INRs 的作用,提出了基于 INRs 的全面压缩流水线并进行了广泛的消融研究,结果表明,该方法表现优异,且与专门为图像设计的常用压缩算法竞争力相当,接近基于率失真自编码器的最新学习方法。
Dec, 2021
本文提出了 Conv-INR,这是第一个完全基于卷积的 INR 模型,相较于现有的基于多层感知机的 INR 模型,Conv-INR 具有更好的表示能力和可训练性,同时能够有效地学习邻近坐标和高频组成部分。通过广泛的实验验证了 Conv-INR 在图像拟合、CT/MRI 重建和新视角合成等四个任务中明显优于现有的基于多层感知机的 INR 模型,而且在不引入额外推理成本的情况下,还提出了三种进一步增强 vanilla Conv-INR 性能的重新参数化方法。
Jun, 2024
通过引入条件解码器与熵最小化技术,该研究提出了一种通用增强框架,成功提升了隐式神经表示在视频存储与处理中的效果,并在多个基线模型上展现了优越的重建质量和收敛速度,为视频回归、修复和插值任务提供了一种强大的技术。
Feb, 2024
通过利用神经网络通过隐式连续函数参数化数据,隐式神经表示(INRs)在场景重建和计算机图形学中显示出显著结果,本论文综述了 INR 模型在医学成像领域的应用,并讨论了 INRs 的优势、局限性以及在医学成像数据中的挑战和考虑因素,同时提出了未来的研究方向和机会。
Jul, 2023
本文引入 HyperINR,一种新颖的超网络架构,通过利用多分辨率哈希编码单元的集合,直接预测一个紧凑的 INR 的权重,从而提高了 INR 的推理性能和支持交互式虚拟现实。
Apr, 2023