BiLO:用于 PDE 反问题的双层局部算子学习
通过将偏微分方程转化为边界积分方程,我们提出了一种新颖的物理信息神经算子方法,可在没有标记数据的情况下解决参数化边界值问题,并且能够处理无界问题。
Aug, 2023
本文提出了一种新型的混合反向问题复合框架,将深度神经网络的高表现力与现有偏微分方程数值算法相结合,通过语义自编码器的自定义层,将计算数学、机器学习和模式识别技术融合在一起,实现了域特定知识和物理约束的综合应用,解决了大量数据中的未知字段这个问题,称之为混合反向 PDE 网络 (BiPDE 网络),并在一维和二维空间中的泊松问题中,以及一维的时间依赖和非线性 Burgers 方程中,应用和证明了其可行性和噪声鲁棒性。
Jan, 2020
通过使用神经网络近似技术,我们提出了一个名为 Neur2BiLO 的框架,用于解决具有整数变量的约束双层问题。Neur2BiLO 能够快速产生高质量的解决方案,适用于多种具有线性或非线性目标 / 约束和整数或混合整数变量的问题。
Feb, 2024
该论文探讨了可以推导出偏微分方程的操作学习模型,而无需重新训练。我们引入了两个创新模型,基于边界积分方程(BIE):边界积分型深度操作网络(BI-DeepONet)和边界积分三角深度操作神经网络(BI-TDONet),它们被设计用于处理不同领域的偏微分方程。一旦完全训练,这些基于 BIE 的模型能够熟练地预测任何域中的偏微分方程的解,而无需额外的训练。BI-TDONet 通过利用有界线性算子的奇异值分解(SVD)来提高性能,从而实现了输入函数在模块间的高效分布。此外,为了解决效果不好的函数采样值无法有效捕捉振荡和脉冲信号特性的问题,BI-TDONet 将三角系数作为输入和输出。我们的数值实验证明了这个理论框架的有效性。
Jun, 2024
本文提出了一种新颖的基于罚函数方法的二层优化问题算法,避免了计算 Hessian 逆矩阵的过程,并可轻松处理限制性二层问题。本方法证明收敛性并在大规模深度神经网络二层问题中表现优异,应用于数据去噪、few-shot 学习和训练数据污染问题,结果表明在准确性、运行时间和收敛速度方面均优于基于自动微分和近似求逆的以前提出的方法。
Nov, 2019
基于变分方法,提出一种新的培训神经网络算子和解决偏微分方程的统一框架,称为变分算子学习(VOL),VOL 可以以近乎无标签的方式有效地学习 PDE 的解算子,并利用最陡下降法和共轭梯度法进行更新。
Apr, 2023
提出一种基于神经网络和基函数的新型算法来求解随机参量的大规模偏微分方程优化问题。通过构建一种新的神经算符逼近偏微分方程的解算符,该算符由减小基构建而成,在保持精度的同时大大缩小了训练数据量和计算成本,并成功用于数值实验中。
May, 2023
本篇研究提出 Differentiating through Bilevel Optimization Programming (BiGrad) 模型,旨在将 Bi-level Programming 加入到神经网络中,通过类别估计算法以降低计算复杂度并支持对于连续变量的处理。实验结果表明,该模型成功地将传统单层方法扩展到了 Bi-level Programming
Feb, 2023
我们提出了一种基于神经网络的元学习方法,用于高效解决偏微分方程(PDE)问题。该方法通过元学习来解决各种各样的 PDE 问题,并将这些知识用于解决新的 PDE 问题。我们使用神经网络将 PDE 问题编码成问题表示,其中,控制方程由偏导数的多项式函数的系数表示,边界条件由一组点条件对表示。我们将问题表示作为神经网络的输入来预测解决方案,通过神经网络的前向过程,我们能够高效地预测特定问题的解决方案,而无需更新模型参数。为了训练我们的模型,我们最小化在基于物理知识的神经网络框架中适应 PDE 问题时的预期误差,通过这种方式,即使解决方案未知,我们也能评估误差。我们证明了我们提出的方法在预测 PDE 问题的解决方案方面优于现有方法。
Oct, 2023
通过将任意近似编码器和解码器与标准前馈深度神经网络 (DNN) 体系结构相结合,我们提出了学习巴拿赫空间之间的算子的问题。我们首先确定了一组 DNN 的族群,使得由这些深度学习 (DL) 过程所获得的产生出算子可以达到最佳的泛化性能。接下来,我们证明了 DL 对于这个问题是最优的,没有任何恢复过程可以超越这些泛化界限。最后,我们展示了在具有挑战性的问题上的实际性能,包括参数扩散、Navier-Stokes-Brinkman 和 Boussinesq 偏微分方程组。
Jun, 2024