掩蔽自编码器是 PDE 学习器
利用神经网络在粗粒化离散空间中学习系统的动力学,并通过降维简化了时间模型的训练过程,同时展示了与在全序空间上操作的神经 PDE 求解器相比,该方法具有竞争力的准确性和效率。
Feb, 2024
该论文通过偏微分方程的理论框架,提出了三种新型的 ResNet 神经网络架构,分别属于抛物线和双曲线类型的 CNN,能够提供深度学习的新算法和思路,并用数值实验证明了它们的竞争力。
Apr, 2018
使用 Transformer 神经网络结构学习物理系统的动力学,混合了卷积自编码器学习的空间模式。模型在预测 Navier-Stokes 方程的时间演化方面取得了与 Fourier Neural Operator(FNO)和 OFormer、Galerkin Transformer 两种基于 Transformer 的神经算子相当或更好的结果。
Nov, 2023
本文提出了一种新型的混合反向问题复合框架,将深度神经网络的高表现力与现有偏微分方程数值算法相结合,通过语义自编码器的自定义层,将计算数学、机器学习和模式识别技术融合在一起,实现了域特定知识和物理约束的综合应用,解决了大量数据中的未知字段这个问题,称之为混合反向 PDE 网络 (BiPDE 网络),并在一维和二维空间中的泊松问题中,以及一维的时间依赖和非线性 Burgers 方程中,应用和证明了其可行性和噪声鲁棒性。
Jan, 2020
该论文提出了一个开源在线培训框架,用于快速解决偏微分方程组,可以提高深度代理模型的数据多样性,对于 Fully connected neural networks、Fourier Neural Operator (FNO) 和 Message Passing PDE Solver 的预测准确度分别提高了 68%、16%和 7%。
Jun, 2023
采用元学习方法将神经网络拟合偏微分方程组的解,并最终在不同的参数、几何域和边界条件下对非线性 Poisson 方程、1D Burgers 方程和超弹性方程组等问题,以较快的速度达到近似精度,且无需传统的有限元分析求解器。
Nov, 2022
我们提出了一种基于神经网络的元学习方法,用于高效解决偏微分方程(PDE)问题。该方法通过元学习来解决各种各样的 PDE 问题,并将这些知识用于解决新的 PDE 问题。我们使用神经网络将 PDE 问题编码成问题表示,其中,控制方程由偏导数的多项式函数的系数表示,边界条件由一组点条件对表示。我们将问题表示作为神经网络的输入来预测解决方案,通过神经网络的前向过程,我们能够高效地预测特定问题的解决方案,而无需更新模型参数。为了训练我们的模型,我们最小化在基于物理知识的神经网络框架中适应 PDE 问题时的预期误差,通过这种方式,即使解决方案未知,我们也能评估误差。我们证明了我们提出的方法在预测 PDE 问题的解决方案方面优于现有方法。
Oct, 2023
本文提出一种深度自编码器架构,用于将非线性 PDE 转换为线性 PDE,使用 Koopman 算子矩阵进行多时间步预测,并在多个示例中进行了演示。
Nov, 2019
提出了一种名为 LE-PDE 的简单,快速且可扩展的方法,通过学习局部动态演化的全局表示,并使用已学习的潜在演化模型在潜空间中进行演化,使得 PDEs 的模拟和反问题求解加速,通过 1D 和 2D 方程的测试结果表明,相比于现有的深度学习模型和其他强基线的方法,最多可达到 128 倍的更新尺寸减少和 15 倍的速度提升,同时精度仍然具有竞争力。
Jun, 2022