物理信息神经网络密集倍增
为了解决偏微分方程(PDEs),物理信息神经网络(PINNs)作为一种有前景的框架,已经在工业和科学领域引起了广泛的关注。然而,由于表达能力不足和初始化问题,PINNs 在复杂的 PDEs 中的应用受到了限制。本文提出了基于逐元素乘积的物理信息神经网络(EM-PINNs)来解决这些问题。采用逐元素乘法操作将特征转化为高维的非线性空间,有效提高了 PINNs 的表达能力。此外,EM-PINNs 利用逐元素乘法操作消除了 PINNs 的初始化问题。在多个基准测试上验证了所提出的结构,结果表明 EM-PINNs 具有很强的表达能力。
Jun, 2024
通过测试传统 PINN 方法的表达能力,本论文提出了一种分布式 PINN(DPINN),并与原方法进行了对比,试图直接使用物理信息神经网络来解决非线性偏微分方程及二维稳态 Navier-Stokes 方程。
Jul, 2019
通过在前馈神经网络中嵌入偏微分方程所描述的物理信息,物理信息导向的神经网络(PINNs)作为深度学习的一种有前途的方法,用于解决偏微分方程(PDEs)。然而,尽管 PINNs 表现出卓越的性能,但它们在处理解快速变化的方程时可能面临困难。为了解决这些问题,我们提出了一种二进制结构的物理信息导向神经网络(BsPINN)框架,其中采用二进制结构神经网络(BsNN)作为神经网络组件。通过利用相对于完全连接的神经网络减少神经元连接的二进制结构,BsPINNs 在更有效和高效地捕捉解的局部特征方面表现出色。在一系列解决 Burgers 方程、Euler 方程、Helmholtz 方程和高维 Poisson 方程的数值实验中,BsPINNs 展现出优异的收敛速度和更高的准确性,相较于 PINNs。从这些实验中,我们发现 BsPINNs 解决了 PINNs 中增加的隐藏层导致过度平滑的问题,并防止了 PDEs 解不光滑导致准确性下降的问题。
Jan, 2024
使用物理信息神经网络(PINN)来解决具有多尺度问题的新框架,通过重新构建损失函数并应用不同数量的幂运算到损失项上以使损失函数中的项具有相近的数量级,并且引入分组正则化策略以解决不同子域中变化显著的问题,该方法使得具有不同数量级的损失项可以同时优化,推动了 PINN 在多尺度问题中的应用。
Aug, 2023
物理启发的神经网络(PINNs)通过将深度学习与基本物理原理相结合,为解决偏微分方程中的正向和反向问题提供了一种有前途的方法。本研究从神经网络架构的角度深入探讨了 PINN 优化的复杂性,利用神经切向核(NTK),揭示了高斯激活提供了比其他激活函数更有效训练 PINNs 的优势。在数值线性代数的启示下,我们引入了一种经过预处理的神经网络架构,展示了这种定制架构如何增强优化过程。我们通过对科学文献中已有的偏微分方程进行严格验证,证实了我们的理论发现。
Feb, 2024
文章综述了物理学启发的神经网络(PINN)的文献,并介绍了其特点和优缺点。此外,研究还包括了使用 PINN 以及它的许多其他变体解决 PDE、分数方程、积分微分方程和随机 PDE 的广泛应用领域,以及它们的定制化方法,如不同的激活函数、梯度优化技术、神经网络结构和损失函数结构。虽然该方法被证明在某些情况下比有限元方法更可行,但它仍面临理论问题尚未解决。
Jan, 2022
我们介绍了一种鲁棒版本的物理启发式神经网络(RPINN)来近似求解偏微分方程(PDEs),该方法利用能量范数计算的残差和格拉姆矩阵的倒数构建了损失函数,在两个空间维度的拉普拉斯问题和对流扩散问题中进行了测试,结果表明 RPINN 是一种鲁棒的方法,其损失函数与解的真实误差在能量范数下相符,因此我们可以知道训练过程进行得如何,并在达到所需精度的真实误差下停止训练来获得 PDE 解的神经网络逼近。
Jan, 2024
提出了一种基于多任务优化范式的物理信息神经网络(PINNs)训练框架,通过解决多个辅助任务来提升主任务的性能,应用于交通密度预测问题的训练中,实验结果表明相比传统方式,该框架显著提高了 PINN 的性能。
Jul, 2023