基于物理知识的神经网络分裂方法推断整数和分数阶神经元模型的动力学
本研究提出了一种称为 Laplace-based fractional physics-informed neural networks (Laplace-fPINNs) 的新方法,通过避免引入大量辅助点和简化损失函数有效解决高维分数扩散方程的正演和反演问题。数值结果证明,Laplace-fPINNs 方法能够有效地解决高维分数扩散方程的正演和反演问题。
Apr, 2023
通过测试传统 PINN 方法的表达能力,本论文提出了一种分布式 PINN(DPINN),并与原方法进行了对比,试图直接使用物理信息神经网络来解决非线性偏微分方程及二维稳态 Navier-Stokes 方程。
Jul, 2019
提供了使用转移学习来增强 PINN 的鲁棒性和收敛性的训练方法,通过两个案例研究发现转移学习可以有效训练 PINN 在低频问题到高频问题的近似解,同时减少了网络参数,所需数据点和训练时间。同时提供了优化器选择和使用转移学习解决更复杂问题的指南。
Jan, 2024
使用物理信息神经网络(PINN)来解决具有多尺度问题的新框架,通过重新构建损失函数并应用不同数量的幂运算到损失项上以使损失函数中的项具有相近的数量级,并且引入分组正则化策略以解决不同子域中变化显著的问题,该方法使得具有不同数量级的损失项可以同时优化,推动了 PINN 在多尺度问题中的应用。
Aug, 2023
通过在前馈神经网络中嵌入偏微分方程所描述的物理信息,物理信息导向的神经网络(PINNs)作为深度学习的一种有前途的方法,用于解决偏微分方程(PDEs)。然而,尽管 PINNs 表现出卓越的性能,但它们在处理解快速变化的方程时可能面临困难。为了解决这些问题,我们提出了一种二进制结构的物理信息导向神经网络(BsPINN)框架,其中采用二进制结构神经网络(BsNN)作为神经网络组件。通过利用相对于完全连接的神经网络减少神经元连接的二进制结构,BsPINNs 在更有效和高效地捕捉解的局部特征方面表现出色。在一系列解决 Burgers 方程、Euler 方程、Helmholtz 方程和高维 Poisson 方程的数值实验中,BsPINNs 展现出优异的收敛速度和更高的准确性,相较于 PINNs。从这些实验中,我们发现 BsPINNs 解决了 PINNs 中增加的隐藏层导致过度平滑的问题,并防止了 PDEs 解不光滑导致准确性下降的问题。
Jan, 2024
本文提出 Finite Basis PINNs (FBPINNs) 方法用于解决大规模微分方程问题。FBPINNs 受到经典有限元方法的启发,使用神经网络学习有 紧支撑的有限基函数来表示微分方程的解,使其具有网格自由性和并行解决多尺度问题的能力。数值实验表明,FBPINNs 既能够解决小模型问题,还能够高效准确地解决大规模复杂问题,比标准的 PINNs 方法具有更好的性能表现。
Jul, 2021
本研究提出了一种用于转移学习的物理学启发式神经网络(PINNs)通用框架,可用于解决普通和偏微分方程线性系统的一次推断,解决了传统数值方法的许多问题,并通过解决多个实际问题展示了这一神经网络的高效性。
Oct, 2021
文章综述了物理学启发的神经网络(PINN)的文献,并介绍了其特点和优缺点。此外,研究还包括了使用 PINN 以及它的许多其他变体解决 PDE、分数方程、积分微分方程和随机 PDE 的广泛应用领域,以及它们的定制化方法,如不同的激活函数、梯度优化技术、神经网络结构和损失函数结构。虽然该方法被证明在某些情况下比有限元方法更可行,但它仍面临理论问题尚未解决。
Jan, 2022
提出一种新的运算矩阵方法以加速分数型物理信息神经网络 (fPINNs) 的训练,方法包括对分数型 Caputo 算子的非均匀离散化,通过矩阵 - 向量乘积替代自动微分,在各种微分方程中得到验证和数值结果的支持。
Jan, 2024