双曲型偏微分方程的算子学习
通过利用低秩结构,我们构建了一种近似于关联绿函数的构建方案,其中相对误差为 $\mathcal {O}(\Gamma_\epsilon^{-1/2}\log^3 (1/\epsilon)\epsilon)$,使用高概率的 $\mathcal {O}(\epsilon^{-6}\log^4 (1/\epsilon))$ 个输入 - 输出训练对在任何 $0<\epsilon<1$ 的情况下可以保证收敛,从而获得了三维椭圆型偏微分方程相关的绿函数的学习的第一个具有理论依据的方案,我们还扩展了用于学习矩阵的随机奇异值分解算法到 Hilbert-Schmidt 算子,并刻画了该算法中偏微分方程协方差核的质量。
Jan, 2021
我们提出了一种基于有限维控制的方法来近似解决高维演化型偏微分方程的解算符。通过使用通用的降阶模型,例如深度神经网络,我们将模型参数的演化与相应函数空间中的轨迹连接起来。利用神经常微分方程的计算技术,我们学习参数空间上的控制,从而使受控轨迹与 PDE 的解非常接近。对于一类二阶非线性 PDE,我们验证了近似精确度。对几个高维 PDE,包括解决 Hamilton-Jacobi-Bellman 方程的真实应用,我们展示了所提方法的准确性和效率。
Jan, 2024
利用 Fourier 神经算子学习非线性双曲型偏微分方程的弱解并采用物理学启发式正则化策略可以提高模型的预测能力,研究表明 Fourier 神经算子具有良好的泛化能力,尽管随着初始和边界条件的分布复杂度线性增长,其泛化误差也呈现线性增长。
Feb, 2023
本文介绍一种新的用于解决高维金融模型中的非线性偏微分方程的方法,该方法包含非线性现象、深度神经网络和随机梯度下降类型优化过程,并通过海量数据的数值结果证明了该方法的高效性和精确性。
Sep, 2017
本文介绍了一种结合了物理与机器学习的新兴领域:PDE 学习。我们提出了一种理论上保证数据效率的算法,可以从有限的输入输出数据中恢复 3D 椭圆型偏微分方程的解算子,并以极高的成功概率呈指数收敛率。
Feb, 2023
通过将任意近似编码器和解码器与标准前馈深度神经网络 (DNN) 体系结构相结合,我们提出了学习巴拿赫空间之间的算子的问题。我们首先确定了一组 DNN 的族群,使得由这些深度学习 (DL) 过程所获得的产生出算子可以达到最佳的泛化性能。接下来,我们证明了 DL 对于这个问题是最优的,没有任何恢复过程可以超越这些泛化界限。最后,我们展示了在具有挑战性的问题上的实际性能,包括参数扩散、Navier-Stokes-Brinkman 和 Boussinesq 偏微分方程组。
Jun, 2024
基于变分方法,提出一种新的培训神经网络算子和解决偏微分方程的统一框架,称为变分算子学习(VOL),VOL 可以以近乎无标签的方式有效地学习 PDE 的解算子,并利用最陡下降法和共轭梯度法进行更新。
Apr, 2023
该论文提出了一种基于强化学习和神经网络的算法用于解决高维情况下的偏微分方程和反向随机微分方程等数学问题,并在物理和金融学领域的各种非线性情况下进行了测试和优化。
Jun, 2017
通过使用神经网络逼近未知解的梯度来解决高维偏微分方程,该算法在包括非线性 Black-Scholes 方程、Hamilton-Jacobi-Bellman 方程和 Allen-Cahn 方程等方程上均取得了精确和低误差的结果。
Jul, 2017
提出一种基于神经网络和基函数的新型算法来求解随机参量的大规模偏微分方程优化问题。通过构建一种新的神经算符逼近偏微分方程的解算符,该算符由减小基构建而成,在保持精度的同时大大缩小了训练数据量和计算成本,并成功用于数值实验中。
May, 2023