用模型集成改进物理知识神经网络的训练
提供了使用转移学习来增强 PINN 的鲁棒性和收敛性的训练方法,通过两个案例研究发现转移学习可以有效训练 PINN 在低频问题到高频问题的近似解,同时减少了网络参数,所需数据点和训练时间。同时提供了优化器选择和使用转移学习解决更复杂问题的指南。
Jan, 2024
我们介绍了一种鲁棒版本的物理启发式神经网络(RPINN)来近似求解偏微分方程(PDEs),该方法利用能量范数计算的残差和格拉姆矩阵的倒数构建了损失函数,在两个空间维度的拉普拉斯问题和对流扩散问题中进行了测试,结果表明 RPINN 是一种鲁棒的方法,其损失函数与解的真实误差在能量范数下相符,因此我们可以知道训练过程进行得如何,并在达到所需精度的真实误差下停止训练来获得 PDE 解的神经网络逼近。
Jan, 2024
该研究介绍了一种名为 PPINN 的新型神经网络结构,可在短时间内解决时间依赖性偏微分方程问题,通过将一个长时间问题分解成许多由粗粒度求解器监督的独立短时间问题,PPINN 可以在几个迭代中实现收敛并获得显著加速。
Sep, 2019
通过测试传统 PINN 方法的表达能力,本论文提出了一种分布式 PINN(DPINN),并与原方法进行了对比,试图直接使用物理信息神经网络来解决非线性偏微分方程及二维稳态 Navier-Stokes 方程。
Jul, 2019
使用物理信息神经网络(PINN)来解决具有多尺度问题的新框架,通过重新构建损失函数并应用不同数量的幂运算到损失项上以使损失函数中的项具有相近的数量级,并且引入分组正则化策略以解决不同子域中变化显著的问题,该方法使得具有不同数量级的损失项可以同时优化,推动了 PINN 在多尺度问题中的应用。
Aug, 2023
通过提出一种轻量级低秩 PINN 和相关的超网络元学习算法,本研究有效地解决了在各种工程和应用科学应用中需要对多个输入参数进行重复数值模拟的问题,并展示了该方法在克服 PINN 的 “失败模式” 方面的有效性。
Oct, 2023