采用自适应激活函数进行深度和物理知识神经网络中的回归以逼近光滑和不连续函数以及线性和非线性偏微分方程的解。该方法通过在激活函数中引入可扩展的超参数,并考虑前向问题和反向问题,显着提高了神经网络学习能力和近似解决方案的收敛速度、准确度和鲁棒性。
Jun, 2019
本研究分析了物理信息神经网络(PINNs)中的剩余损失,并发现了通过研究其在临界点处的特性,找到了实现有效训练的条件。我们的分析揭示了一个良好高阶导数的激活函数在最小化剩余损失中起关键作用,进而提供了设计和选择 PINNs 有效激活函数的理论依据,并解释了为什么周期性激活函数在某些情况下表现出有希望的性能。最后,通过在几个偏微分方程上进行一系列实验验证了我们的发现。
May, 2024
研究探讨了物理信息神经网络(PINN)模型在解决基于输运方程的偏微分方程(PDEs)方面的应用,主要目的是分析在 PINN 模型中不同激活函数对其预测性能的影响,特别是均方误差(MSE)和平均绝对误差(MAE)的评估。研究使用的数据集包含与支柱直径、单元格尺寸以及相应屈服应力值相关的各种输入参数。研究的结果表明,对于这个特定问题,激活函数的选择可能对模型的预测准确性产生较小的影响。PINN 模型展示了出色的泛化能力,表明其能够避免与提供的数据集过度拟合。研究强调了在选择特定实际应用的激活函数时,在性能和计算效率之间取得平衡的重要性。这些宝贵的发现有助于推动 PINN 作为解决各种科学和工程领域中具有挑战性的 PDEs 的有效工具的理解和潜在应用。
Jul, 2023
物理启发的神经网络(PINNs)通过将深度学习与基本物理原理相结合,为解决偏微分方程中的正向和反向问题提供了一种有前途的方法。本研究从神经网络架构的角度深入探讨了 PINN 优化的复杂性,利用神经切向核(NTK),揭示了高斯激活提供了比其他激活函数更有效训练 PINNs 的优势。在数值线性代数的启示下,我们引入了一种经过预处理的神经网络架构,展示了这种定制架构如何增强优化过程。我们通过对科学文献中已有的偏微分方程进行严格验证,证实了我们的理论发现。
Feb, 2024
我们介绍了一种鲁棒版本的物理启发式神经网络(RPINN)来近似求解偏微分方程(PDEs),该方法利用能量范数计算的残差和格拉姆矩阵的倒数构建了损失函数,在两个空间维度的拉普拉斯问题和对流扩散问题中进行了测试,结果表明 RPINN 是一种鲁棒的方法,其损失函数与解的真实误差在能量范数下相符,因此我们可以知道训练过程进行得如何,并在达到所需精度的真实误差下停止训练来获得 PDE 解的神经网络逼近。
Jan, 2024
提出了一种高效的物理导向神经网络(PINNs)框架,称为自适应界面 - PINNs(AdaI-PINNs),用于改进具有不连续系数和 / 或界面跳跃的界面问题的建模。
Jun, 2024
本文提出了一种名为 SA-PINNs 的自适应训练方法,通过使用可训练的自适应权重和基于高斯过程回归的连续权重映射,使神经网络学习重点区域并获得了很好的性能,在多项线性和非线性基准测试问题中表现出色,是当前最先进的 PINN 算法之一。
Sep, 2020
文章综述了物理学启发的神经网络(PINN)的文献,并介绍了其特点和优缺点。此外,研究还包括了使用 PINN 以及它的许多其他变体解决 PDE、分数方程、积分微分方程和随机 PDE 的广泛应用领域,以及它们的定制化方法,如不同的激活函数、梯度优化技术、神经网络结构和损失函数结构。虽然该方法被证明在某些情况下比有限元方法更可行,但它仍面临理论问题尚未解决。
Jan, 2022
本文研究了物理知识对神经网络的影响,尤其是对物理意义的学习。研究发现,使用以前的方法,神经网络会容易受到微妙的问题的困扰。为了解决这个问题,我们提出了课程规范化和序列到序列学习两种新的方法。通过使用这两种方法,我们可以取得比以前更好的结果。
Sep, 2021
本文探索使用 PINNs 求解障碍相关的偏微分方程,通过多种场景对线性和非线性、规则和不规则障碍下的 PDE 进行求解,表现良好。
Apr, 2023