广义隐式神经表示法
利用隐式神经表示 (INRs) 以欧几里得空间的多层感知器 (MLP) 对图像进行参数化,有效地在信号中表示了在常规离散表示中看不到的耦合空间和频谱特征,为以前不可能的连续信号处理和机器学习方法铺平了道路。本文研究了使用正弦激活函数的 INRs 在傅里叶理论方面的工作,并展示了与正弦函数相比,使用小波作为激活函数的优势,因为它们能够同时在频率和空间上进行本地化。我们在这项工作中探讨了这种 INRs,并演示了它们如何从 MLP 的第一层中进行粗糙逼近从而解析出信号的高频特征。这导致了多种 INR 架构设计的建议,包括使用复数小波,解耦低通和带通逼近以及基于所需信号奇点的初始化方案。
Oct, 2023
隐式神经表示(INR)已成为计算机视觉和计算成像中解决反问题的强大工具。在线性反问题背景下,我们研究了使用单隐藏层 ReLU 激活和傅里叶特征层的广义权重衰减正则化方法,来从低通傅里叶系数恢复连续域图像的采样要求,验证了我们的理论,并展示了 INR 在超分辨恢复更实际的连续域幻影图像上的性能。
May, 2024
本文介绍了 Implicit Neural Representations (INRs) 的概念,并提出了 inr2vec 框架作为一种有效的在深度学习流程中解决 INRs 表示的下游任务的方法。
Feb, 2023
本文提出了一个称为隐式神经表示正则化器的正则化器 (INRR),以提高隐式神经表示 (INR) 的泛化能力。 INRR 通过将归一化的 Dirichlet 能量 (DE) 与 INR 集成来改善信号表示中的泛化性能,从而更好地集成了信号的自相似性和 Laplacian 矩阵的光滑度。作者进一步设计了一系列实验来论证 INRR 的性质,如收敛轨迹和多尺度相似性,并表明该方法可以提高其他信号表示方法的性能。
Mar, 2023
该研究提出了一种新的统一视角来理论上分析隐式神经表示,揭示了其与结构化信号词典相似性,这种结构使得 INRs 能够使用深度线性增长的参数表达具有指数级频率支持的信号,并可以通过元学习来重新塑造 NTK,以进一步设计和调整 INRs 的体系结构。
Dec, 2021
该研究论文提出了一种能够通过基于坐标的子网络来构建神经隐式词典 (NID) 并代表内在神经表征的框架,通过优化结果能够更快地重建 2D/3D 图像并解决遮挡问题。
Jul, 2022
本文提出了 Conv-INR,这是第一个完全基于卷积的 INR 模型,相较于现有的基于多层感知机的 INR 模型,Conv-INR 具有更好的表示能力和可训练性,同时能够有效地学习邻近坐标和高频组成部分。通过广泛的实验验证了 Conv-INR 在图像拟合、CT/MRI 重建和新视角合成等四个任务中明显优于现有的基于多层感知机的 INR 模型,而且在不引入额外推理成本的情况下,还提出了三种进一步增强 vanilla Conv-INR 性能的重新参数化方法。
Jun, 2024
本文利用隐式神经表示技术分析了时间序列数据的表示问题,并提出了一种基于傅里叶变换的损失函数来指导网络训练的超网络结构,用于生成时间序列数据。我们证明了这个方法可以用于时间序列数据的扩充与生成,并且在此领域达到了最先进的方法的水平。
Aug, 2022
通过利用神经网络通过隐式连续函数参数化数据,隐式神经表示(INRs)在场景重建和计算机图形学中显示出显著结果,本论文综述了 INR 模型在医学成像领域的应用,并讨论了 INRs 的优势、局限性以及在医学成像数据中的挑战和考虑因素,同时提出了未来的研究方向和机会。
Jul, 2023
本研究通过对输入信号进行重新排列,提出了混沌不变的隐式神经表示(DINER)。DINER 通过将哈希表添加到传统的 INR 骨干网络中,将坐标投影到相同的分布中,在减轻频谱偏差的同时,提高了信号建模的表现力。
Apr, 2023