基于隐式神经表示的形状深度学习
本文研究了隐式神经表达在低层视觉问题中的应用,包括图像去噪、超分辨率、修补和去模糊等任务,并在实验中证明了其在资源有限情况下超过其他方法 2dB 以上的卓越表现。
Apr, 2023
本文利用隐式神经表示技术分析了时间序列数据的表示问题,并提出了一种基于傅里叶变换的损失函数来指导网络训练的超网络结构,用于生成时间序列数据。我们证明了这个方法可以用于时间序列数据的扩充与生成,并且在此领域达到了最先进的方法的水平。
Aug, 2022
通过利用神经网络通过隐式连续函数参数化数据,隐式神经表示(INRs)在场景重建和计算机图形学中显示出显著结果,本论文综述了 INR 模型在医学成像领域的应用,并讨论了 INRs 的优势、局限性以及在医学成像数据中的挑战和考虑因素,同时提出了未来的研究方向和机会。
Jul, 2023
INFusion 是一种技术,通过使用预训练的扩散模型,为基于学习的隐式神经表示(INRs)的优化提供正则化,以改善图像重建。2D 实验证明了使用我们提出的扩散正则化改进了 INR 训练的效果,而 3D 实验则证明了在 256x256x80 大小的 3D 矩阵上使用扩散正则化进行 INR 训练的可行性。
Jun, 2024
使用 Transformer 作为超网络构建内隐神经表示,避免信息瓶颈和优化低效性,并在 2D 图像回归和 3D 对象视图合成等任务和领域中展示其有效性。
Aug, 2022
本文提出了 Conv-INR,这是第一个完全基于卷积的 INR 模型,相较于现有的基于多层感知机的 INR 模型,Conv-INR 具有更好的表示能力和可训练性,同时能够有效地学习邻近坐标和高频组成部分。通过广泛的实验验证了 Conv-INR 在图像拟合、CT/MRI 重建和新视角合成等四个任务中明显优于现有的基于多层感知机的 INR 模型,而且在不引入额外推理成本的情况下,还提出了三种进一步增强 vanilla Conv-INR 性能的重新参数化方法。
Jun, 2024
本文介绍了一种新的数据表示方法 —— 隐式神经表示法,经过结构优化后,可以对比 JPEG 等传统压缩方法得到更好的压缩效果,并提出了 Meta-Learning 算法在压缩和学习隐式神经表示方面的改进方法,实现了在不同数据模态下的卓越表现。
May, 2022
该研究提出了一种新的统一视角来理论上分析隐式神经表示,揭示了其与结构化信号词典相似性,这种结构使得 INRs 能够使用深度线性增长的参数表达具有指数级频率支持的信号,并可以通过元学习来重新塑造 NTK,以进一步设计和调整 INRs 的体系结构。
Dec, 2021
HyperSound 是第一种利用超网络进行元学习的方法,用于生成适合于音频样本的 INRs,以解决现有方法难以应用于音频的局限性,提供了一种可行的代替深度神经网络中当前用于音频处理的声谱图表示方法,并且重新构建的音频样本质量可与其他最先进的模型相媲美。
Feb, 2023