ICMLJun, 2024

ReLUs 足以学习隐式神经表示

TL;DR通过第二阶 B 样条小波的灵感,我们给深度神经网络 (DNN) 每一层的 ReLU 神经元引入一组简单的约束以修正其谱偏差,从而实现对各种隐式神经表示任务的有效使用。通过实验证明,与普遍观点相反,基于只包含 ReLU 神经元的 DNN 可以学习出最先进的隐式神经表示。我们利用最近关于 ReLU 神经网络学习函数类型的理论工作,提供了一种量化学习函数规则性的方法,为 INR 架构中的超参数选择提供了有原则的方法。通过在信号表示、超分辨率和计算机断层扫描等领域进行实验,我们验证了我们方法的多样性和有效性。所有实验的代码可以在此 URL 中找到。