本文介绍了 Implicit Neural Representations (INRs) 的概念,并提出了 inr2vec 框架作为一种有效的在深度学习流程中解决 INRs 表示的下游任务的方法。
Feb, 2023
通过改进范围分析技术,我们能够更准确地估计价值范围,从而更准确地识别等值面单元并在 INR 上实现更高效的等值面提取。
Feb, 2024
隐式神经表示(INR)已成为计算机视觉和计算成像中解决反问题的强大工具。在线性反问题背景下,我们研究了使用单隐藏层 ReLU 激活和傅里叶特征层的广义权重衰减正则化方法,来从低通傅里叶系数恢复连续域图像的采样要求,验证了我们的理论,并展示了 INR 在超分辨恢复更实际的连续域幻影图像上的性能。
May, 2024
本文通过实证调查发现,当神经网络逼近不连续的分段函数以达到一定的小误差时,时间成本会随着目标信号的空间域边界的增加而呈指数级增长。然后,为了解决这一问题,文章提出了一种基于分区机制的方法,通过将复杂信号分割成多个子区域,并利用分段隐式神经表示来逼近该信号,从而显著加速收敛速度。作者在图像重建的两种场景下进行了实验证明了这种分区方法的有效性:一种是用于学习隐式神经表示,另一种是用于学习 - to-learn 隐式神经表示。
Oct, 2023
通过利用神经网络通过隐式连续函数参数化数据,隐式神经表示(INRs)在场景重建和计算机图形学中显示出显著结果,本论文综述了 INR 模型在医学成像领域的应用,并讨论了 INRs 的优势、局限性以及在医学成像数据中的挑战和考虑因素,同时提出了未来的研究方向和机会。
Jul, 2023
本文研究了隐式神经表达在低层视觉问题中的应用,包括图像去噪、超分辨率、修补和去模糊等任务,并在实验中证明了其在资源有限情况下超过其他方法 2dB 以上的卓越表现。
Apr, 2023
INFusion 是一种技术,通过使用预训练的扩散模型,为基于学习的隐式神经表示(INRs)的优化提供正则化,以改善图像重建。2D 实验证明了使用我们提出的扩散正则化改进了 INR 训练的效果,而 3D 实验则证明了在 256x256x80 大小的 3D 矩阵上使用扩散正则化进行 INR 训练的可行性。
Jun, 2024
利用隐式神经表示 (INRs) 以欧几里得空间的多层感知器 (MLP) 对图像进行参数化,有效地在信号中表示了在常规离散表示中看不到的耦合空间和频谱特征,为以前不可能的连续信号处理和机器学习方法铺平了道路。本文研究了使用正弦激活函数的 INRs 在傅里叶理论方面的工作,并展示了与正弦函数相比,使用小波作为激活函数的优势,因为它们能够同时在频率和空间上进行本地化。我们在这项工作中探讨了这种 INRs,并演示了它们如何从 MLP 的第一层中进行粗糙逼近从而解析出信号的高频特征。这导致了多种 INR 架构设计的建议,包括使用复数小波,解耦低通和带通逼近以及基于所需信号奇点的初始化方案。
该研究论文提出了一种能够通过基于坐标的子网络来构建神经隐式词典 (NID) 并代表内在神经表征的框架,通过优化结果能够更快地重建 2D/3D 图像并解决遮挡问题。
Jul, 2022
该文介绍了一种使用隐式神经表示和超网络获取图像的不变语义表示的方法,该方法可以在任意或随机旋转和平移的图像中获取方向不变的语义表示,并与 SCAN 结合,获得最新的无监督聚类结果。