神经算子:学习函数空间之间映射
本文旨在通过神经网络学习无限维空间(算子)和不同有限维空间之间的映射,并使用图网络进行内核积分计算。该方法在偏微分方程及其解的输入数据映射中具有实际应用价值,并在不同分辨率和离散化的近似方法之间实现了泛化。实验证明,所提出的图内核网络具有期望的性能,并与现有技术解算器相比表现出优异的性能。
Mar, 2020
该论文提出了一种新的神经算子,通过直接在傅里叶空间中参数化积分核,实现了对偏微分方程的求解,并在 Burgers' equation、Darcy 流和 Navier-Stokes 方程等测试中展现了高准确率和比传统方法高三个数量级的速度。
Oct, 2020
通过对机器学习理念在函数巴拿赫空间之间进行映射的(通常是非线性)算子的应用,可以构建近似算子,这些算子通常源于用偏微分方程(PDEs)表达的物理模型。近似算子在许多查询任务中具有巨大的潜力,作为传统数值方法的高效代理模型。由于数据驱动,当无法提供基于 PDE 的数学描述时,它们还可以进行模型发现。本综述主要关注神经算子,其构建基于深度神经网络在有限维欧几里得空间定义的函数的逼近方面的成功。从经验上看,神经算子在各种应用中都显示出了成功,但我们对其理论的理解仍然不完整。本综述文章总结了近期进展和我们对神经算子理论方面的当前认识,着重从逼近理论的角度来看。
Feb, 2024
通过可微分同胚神经运算符学习框架,提出了一种面向具有不同和复杂领域的物理系统的域灵活模型的方法,实现神经运算符在不同领域中的强大学习能力和鲁棒的概化。
Feb, 2024
通过将任意近似编码器和解码器与标准前馈深度神经网络 (DNN) 体系结构相结合,我们提出了学习巴拿赫空间之间的算子的问题。我们首先确定了一组 DNN 的族群,使得由这些深度学习 (DL) 过程所获得的产生出算子可以达到最佳的泛化性能。接下来,我们证明了 DL 对于这个问题是最优的,没有任何恢复过程可以超越这些泛化界限。最后,我们展示了在具有挑战性的问题上的实际性能,包括参数扩散、Navier-Stokes-Brinkman 和 Boussinesq 偏微分方程组。
Jun, 2024
本文提出了一种新的数学框架,即基于连续离散等价性的表征等效神经算子,通过引入连续信号的具体和稳定的离散表征来确保学习算子的操作在连续和离散层面的等效性,从而解决了现有模型在计算机实现时无法真正表现算子学习的问题。
May, 2023
基于神经操作符的人工智能框架为连续域函数之间的映射学习提供了一个原则性框架,通过零样本超分辨率等功能,可以为科学发现和工程设计的模拟和设计提供快速的数据驱动代替,进而带来快速的研究与开发。
Sep, 2023
最近,机器学习的最新发展提出了一种被称为神经算子的神经网络架构,能够近似函数空间之间的映射关系。我们以应用于基础物理学为目标,研究了它们在量子力学的散射过程中的应用。我们使用傅里叶神经算子的迭代变体来学习 Schrödinger 算子的物理性质,它将初始波函数和势能映射到最终波函数。这些深度算子学习的想法在两个具体问题中进行了测试:一个是在 $1+1$ 维度中预测波包散射在中心势场中的时间演化的神经算子,另一个是在 $2+1$ 维度中的双缝实验。在推断过程中,与传统的有限差分求解器相比,神经算子可以提高数个数量级的计算效率。
Aug, 2023
本文提出了一种名为动态高斯图算子(DGGO)的新型算子学习算法,它将神经操作器扩展到任意离散力学问题中的学习参数偏微分方程(PDEs),通过动态高斯图(DGG)核将在一般欧几里得空间中定义的观测向量映射到高维均匀度量空间中定义的度量向量,致力于解决复杂的计算域上的通用性问题。
Mar, 2024