基于领域分解的初始化增强物理信息神经网络
综合应用多保真性堆叠物理信息神经网络和基于域分解的有限基础物理信息神经网络(PINNs)以改善时间相关问题的 PINNs 性能,表明域分解方法明显提高了 PINN 和堆叠 PINN 方法的性能。
Jan, 2024
本文通过使用 Schwarz 交替方法将物理信息神经网络 (PINNs) 与传统数值模型进行耦合,探索了在非线性偏微分方程中加速神经网络训练的方法,并在一维平流 - 扩散方程中验证了该方法对提高 PINN 训练的有效性。
Nov, 2023
使用物理信息神经网络(PINN)来解决具有多尺度问题的新框架,通过重新构建损失函数并应用不同数量的幂运算到损失项上以使损失函数中的项具有相近的数量级,并且引入分组正则化策略以解决不同子域中变化显著的问题,该方法使得具有不同数量级的损失项可以同时优化,推动了 PINN 在多尺度问题中的应用。
Aug, 2023
本文提出了一种基于对称群的域分解策略,以增强物理信息神经网络(PINN)对具有李对称群的偏微分方程(PDE)的正向和反向问题的求解能力,该方法通过将整个训练域划分为多个不重叠的子域,并利用 PINN 和对称增强 PINN 方法在每个子域中学习解决方案,最后将它们拼接成 PDE 的整体解。通过 Korteweg-de Vries 方程和非线性粘性流体方程的数值结果表明,该方法显著提高了学习解的精度。
Apr, 2024
该研究提出了一种改进物理信息神经网络 (PINNs) 的训练方法,其中引入了非线性加性和乘性预处理策略以提高常用 L-BFGS 优化器的收敛性,并实现更精确的偏微分方程的解,同时提出了一种模型并行化方法。
Jun, 2023
将几何变换与物理约束神经网络(PINNs)结合,通过将微分同胚作为参考域的映射并调整物理约束损失函数的导数计算,我们实现了对复杂几何和低维流形的 PINNs 的应用,从而允许在网络训练中进行直接的形状优化。通过对多个问题的示例验证,特别是在几何变化下,我们展示了该方法相比传统 PINNs 的增强灵活性。该框架为在科学和工程中基于参数化几何体上的偏微分方程(PDEs)进行高级建模铺平了道路。
Nov, 2023
本文提出 Finite Basis PINNs (FBPINNs) 方法用于解决大规模微分方程问题。FBPINNs 受到经典有限元方法的启发,使用神经网络学习有 紧支撑的有限基函数来表示微分方程的解,使其具有网格自由性和并行解决多尺度问题的能力。数值实验表明,FBPINNs 既能够解决小模型问题,还能够高效准确地解决大规模复杂问题,比标准的 PINNs 方法具有更好的性能表现。
Jul, 2021
提供了使用转移学习来增强 PINN 的鲁棒性和收敛性的训练方法,通过两个案例研究发现转移学习可以有效训练 PINN 在低频问题到高频问题的近似解,同时减少了网络参数,所需数据点和训练时间。同时提供了优化器选择和使用转移学习解决更复杂问题的指南。
Jan, 2024