本文从神经切向核角度研究了具有物理约束的神经网络的训练以及其训练过程中收敛率不同的 loss 组件,提出了一种利用 NTK 的特征值来自适应地校准误差收敛率的优化算法。
Jul, 2020
物理启发的神经网络(PINNs)通过将深度学习与基本物理原理相结合,为解决偏微分方程中的正向和反向问题提供了一种有前途的方法。本研究从神经网络架构的角度深入探讨了 PINN 优化的复杂性,利用神经切向核(NTK),揭示了高斯激活提供了比其他激活函数更有效训练 PINNs 的优势。在数值线性代数的启示下,我们引入了一种经过预处理的神经网络架构,展示了这种定制架构如何增强优化过程。我们通过对科学文献中已有的偏微分方程进行严格验证,证实了我们的理论发现。
Feb, 2024
该研究通过对不同频率、组合和方程的简单正弦函数进行一系列数值实验,发现在标准化条件下,具有任意阶微分方程的物理知情神经网络确实存在明显的谱偏差,并随微分方程的阶数而增加。
Jan, 2023
本研究采用神经切向核理论观察了物理知识指导神经网络的局限性,并通过构建新的体系结构使用时空和多尺度随机傅里叶特征,成功解决了波传播、反应扩散动力学等多尺度问题。
Dec, 2020
提出一种使用变量缩放技术训练物理信息神经网络(PINNs)的新方法,通过对神经切线核(NTK)的分析提供理论证据并证明这种方法确实可以提高 PINNs 的性能。
Jun, 2024
通过使用限制共轭核和神经切向核进行特征映射层的 PINNs 训练动态分析,我们揭示了模型收敛和普适性的一些内部机制。同时,我们发现常用的基于傅立叶变换的特征映射在某些情况下存在不足,并提出了条件正定的径向基函数作为更好的替代方案。实证结果表明我们的方法在各种正向和逆向问题集中具有有效性。这种简单的技术可以轻松地在坐标输入网络中实现,并使广泛的 PINNs 研究受益。
物理信息神经网络是一种有效求解偏微分方程的新方法,通过理论框架将其与高斯过程回归等价,并推导出由其架构选择所引起的核项来增强其预测能力,并通过源项的谱分解量化其隐含偏差
Jul, 2023
本文研究了有限宽度的深度全连接神经网络中神经切向核的动态,并推导出一个无穷层次的普通微分方程组,它捕捉了深层神经网络的梯度下降动态。此外,在条件限制下,研究证明了 NTH 的截断层次近似于 NTK 的动态。这些描述使直接研究深度神经网络的 NTK 的变化成为可能,同时也揭示了深度神经网络胜过相应极限 NTK 的内在原因。
Sep, 2019
通过使用具有随机初始化的无限宽度深度网络集合的马尔可夫接近学习模型,结合数值评估来合并和统一神经切向核(NTK)和神经网络高斯过程(NNGP)理论,并提供对机器学习中深度神经网络学习过程的全面理解。
Sep, 2023
使用神经切比洛夫核方法,获得了网络训练误差上限、网络大小不变的泛化误差上限,以及一个简单且解析的核函数,能够优于相关网络,但需要注意网络缩放因子的问题。本文对原有方法进行修正,提出了更加严格的误差上限,解决了缩放问题。