基于多层卷积神经网络的参数化偏微分方程求解
通过神经网络架构解决高维参数依赖的偏微分方程问题,借助自适应有限元方法提高训练效率并控制逼近误差,并利用可靠的残差估计器测量观察误差,使网络输出只需要少量参数进行逼近,从而实现在局部细化网格上适应问题的解表示及稀疏图像的处理。
Mar, 2024
利用深度学习方法解决高维随机偏微分方程的问题。通过使用全连接深度残差网络来逼近随机偏微分方程,在确定逼近深度神经网络的参数时,采用了 SGD 的变种,并在扩散和热传导问题上得到了验证。
Jun, 2018
我们提出了两种基于随机神经网络解决高维偏微分方程 (PDE) 的有效方法。通过对这种类型网络的普适逼近性质的激励,这两种方法都将极限学习机 (ELM) 方法从低维扩展到高维。第一种方法中,$d$ 维度下未知解域由随机前向神经网络表示,其中隐藏层参数随机分配并固定,而输出层参数进行训练。PDE、边界 / 初值条件以及连续性条件 (对于方法的局部变量) 被施加在一组随机内部 / 边界对应点上。通过最小二乘解决其结果线性或非线性代数系统,从而得到网络参数的训练值。第二种方法通过一个基于近似理论的被约束表达式重新描述高维 PDE 问题,避免了随着维度增加而引发的 TFC 项数量的指数级增长。约束表达式中的自由域函数由随机神经网络表示,并通过类似于第一种方法的过程进行训练。我们进行了大量数值模拟,针对多个高维线性 / 非线性静态 / 动态 PDE,以展示这些方法的性能。与基于物理知识的神经网络 (PINN) 方法相比,当前方法在高维 PDEs 上既具有成本效益,又更准确。
Sep, 2023
该论文通过偏微分方程的理论框架,提出了三种新型的 ResNet 神经网络架构,分别属于抛物线和双曲线类型的 CNN,能够提供深度学习的新算法和思路,并用数值实验证明了它们的竞争力。
Apr, 2018
本研究旨在通过利用解空间的低维特性,导出 ReLU 神经网络逼近参数化偏微分方程解映射复杂度的上界,具有较传统神经网络逼近结果更优的逼近速率。具体而言,在不了解具体形状的情况下,我们利用小型降维基解的存在性,构建了一些神经网络,以便大范围参数化偏微分方程可以提供这样的参数化解映射逼近,而这些网络的大小基本只取决于基解的大小。
Mar, 2019
通过构建多级图神经网络框架,解决基于深度学习的物理系统模拟和偏微分方程求解中数据格式与神经网络所需结构不匹配所带来的挑战,提出一种对于 GNN 和多分辨率矩阵核分解统一的方法,该方法可以处理所有范围的相互作用并具有线性复杂度。实验证明,这种多图网络可以学习离散化不变的 PDE 解算符并可以在线性时间内进行评估。
Jun, 2020
通过使用神经网络逼近未知解的梯度来解决高维偏微分方程,该算法在包括非线性 Black-Scholes 方程、Hamilton-Jacobi-Bellman 方程和 Allen-Cahn 方程等方程上均取得了精确和低误差的结果。
Jul, 2017
本文提出了一种新型的混合反向问题复合框架,将深度神经网络的高表现力与现有偏微分方程数值算法相结合,通过语义自编码器的自定义层,将计算数学、机器学习和模式识别技术融合在一起,实现了域特定知识和物理约束的综合应用,解决了大量数据中的未知字段这个问题,称之为混合反向 PDE 网络 (BiPDE 网络),并在一维和二维空间中的泊松问题中,以及一维的时间依赖和非线性 Burgers 方程中,应用和证明了其可行性和噪声鲁棒性。
Jan, 2020
利用采样方法,从数据无关和数据相关的概率分布中提取隐含权重和偏置的神经网络,可以在训练时间和逼近精度方面取得重大突破,并且能够有效解决时变和静态的偏微分方程以及逆问题,带来了光谱收敛和无网格构建基函数等优势。
May, 2024