紧凑型隐式神经表示用于平面波图像
本研究通过对输入信号进行重新排列,提出了混沌不变的隐式神经表示(DINER)。DINER通过将哈希表添加到传统的INR骨干网络中,将坐标投影到相同的分布中,在减轻频谱偏差的同时,提高了信号建模的表现力。
Apr, 2023
通过利用神经网络通过隐式连续函数参数化数据,隐式神经表示(INRs)在场景重建和计算机图形学中显示出显著结果,本论文综述了INR模型在医学成像领域的应用,并讨论了INRs的优势、局限性以及在医学成像数据中的挑战和考虑因素,同时提出了未来的研究方向和机会。
Jul, 2023
利用隐式神经表示( INRs )以欧几里得空间的多层感知器( MLP )对图像进行参数化,有效地在信号中表示了在常规离散表示中看不到的耦合空间和频谱特征,为以前不可能的连续信号处理和机器学习方法铺平了道路。本文研究了使用正弦激活函数的INRs在傅里叶理论方面的工作,并展示了与正弦函数相比,使用小波作为激活函数的优势,因为它们能够同时在频率和空间上进行本地化。我们在这项工作中探讨了这种INRs,并演示了它们如何从MLP的第一层中进行粗糙逼近从而解析出信号的高频特征。这导致了多种INR架构设计的建议,包括使用复数小波,解耦低通和带通逼近以及基于所需信号奇点的初始化方案。
Oct, 2023
通过引入可学习的空间掩码,将不同频率的傅里叶基函数有效地分配给各个区域,从而实现傅里叶拼贴,并能对复杂信号进行准确表示,该方法在各种INR任务中的实验表明,相较于现有基线模型,其重构质量更高,如图像拟合 PSNR 提高了3dB以上,3D重建达到了98.81的IoU和0.0011的Chamfer距离。
Dec, 2023
利用深度学习和数据到图像网络来改善超快速超声成像的图像质量,结果表明即使使用很少的训练数据,该网络架构也能在所有评估指标上提高单平面波图像的质量。
Apr, 2024
该研究论文以压缩神经场为中心,介绍了自适应神经图像(ANI)的方法,能够在不损失细节和保持保真度的情况下将神经图像的每个像素位数降低了4倍,为发展压缩神经场提供了一个新框架。
May, 2024
隐式神经表示(INR)已成为计算机视觉和计算成像中解决反问题的强大工具。在线性反问题背景下,我们研究了使用单隐藏层ReLU激活和傅里叶特征层的广义权重衰减正则化方法,来从低通傅里叶系数恢复连续域图像的采样要求,验证了我们的理论,并展示了INR在超分辨恢复更实际的连续域幻影图像上的性能。
May, 2024
本文提出了 Conv-INR,这是第一个完全基于卷积的INR模型,相较于现有的基于多层感知机的INR模型,Conv-INR具有更好的表示能力和可训练性,同时能够有效地学习邻近坐标和高频组成部分。通过广泛的实验验证了Conv-INR在图像拟合、CT/MRI重建和新视角合成等四个任务中明显优于现有的基于多层感知机的INR模型,而且在不引入额外推理成本的情况下,还提出了三种进一步增强 vanilla Conv-INR 性能的重新参数化方法。
Jun, 2024
该研究解决了隐式神经表示(INR)中激活函数选择对性能的影响,特别是在捕捉高频成分和处理逆问题方面存在的局限性。论文提出了SL$^{2}$A-INR,这是一种具有单层可学习激活函数的混合网络,显著提高了多种视觉任务的表现,设定了准确性、质量和收敛速度的新基准。
Sep, 2024