神经算子的合成数据生成
在本研究中,我们提出了一种新颖的方法来减轻 DeepONets 训练数据生成的计算负担,通过使用高斯过程回归 (GPR) 来生成输出场,然后利用有限差分技术计算输入源场,从而显著减少了与 DeepONet 的训练数据集生成相关的计算成本。该方法可以推广到其他操作学习方法,并适用于多种边界值问题,以验证这种方法。
Feb, 2024
利用采样方法,从数据无关和数据相关的概率分布中提取隐含权重和偏置的神经网络,可以在训练时间和逼近精度方面取得重大突破,并且能够有效解决时变和静态的偏微分方程以及逆问题,带来了光谱收敛和无网格构建基函数等优势。
May, 2024
本文综述了传统的 PDE 数值逼近方法以及近期的基于机器学习的方法,重点介绍了以神经算子为中心的关键构架,这是一种学习 PDE 解算子的新方法,与传统方法相比具有 1000 倍的计算速度优势,这些新的计算方法可以在解决许多基础和应用物理问题方面带来巨大优势。
Jan, 2023
利用深度学习方法解决高维随机偏微分方程的问题。通过使用全连接深度残差网络来逼近随机偏微分方程,在确定逼近深度神经网络的参数时,采用了 SGD 的变种,并在扩散和热传导问题上得到了验证。
Jun, 2018
本文对深度神经网络用于偏微分方程 (PDEs) 求解的现状和潜在应用进行了综述,分析和分类了相关方法在科学研究和工程场景中的应用,介绍了这一领域的来源、历史、特点、类型以及未来趋势。
Oct, 2022
该论文提出了一个开源在线培训框架,用于快速解决偏微分方程组,可以提高深度代理模型的数据多样性,对于 Fully connected neural networks、Fourier Neural Operator (FNO) 和 Message Passing PDE Solver 的预测准确度分别提高了 68%、16%和 7%。
Jun, 2023
本研究介绍了一种基于 Julia 语言的分布式编程 API,该 API 可以在云上平行模拟训练数据,并展示了 PDE 问题领域分解的模型并行深度学习方法,在解决大规模 PDE 问题方面大幅提高了效率。
Nov, 2022
该论文提出了一种新的神经算子,通过直接在傅里叶空间中参数化积分核,实现了对偏微分方程的求解,并在 Burgers' equation、Darcy 流和 Navier-Stokes 方程等测试中展现了高准确率和比传统方法高三个数量级的速度。
Oct, 2020
我们提出了一种完全无监督的方法,通过小型卷积神经网络直接估计偏微分方程的有限差分解,以解决常规神经网络方法在估计 PDE 解时遇到的泛化差距问题。与有限差分法相比,我们的算法在几个选定的椭圆和抛物问题的真实解上展示了相当准确的结果。
Nov, 2023
本文提出了一种新型的混合反向问题复合框架,将深度神经网络的高表现力与现有偏微分方程数值算法相结合,通过语义自编码器的自定义层,将计算数学、机器学习和模式识别技术融合在一起,实现了域特定知识和物理约束的综合应用,解决了大量数据中的未知字段这个问题,称之为混合反向 PDE 网络 (BiPDE 网络),并在一维和二维空间中的泊松问题中,以及一维的时间依赖和非线性 Burgers 方程中,应用和证明了其可行性和噪声鲁棒性。
Jan, 2020