通过复合算子在$L^2$中诱导Riesz和正交基
本文提出了使用梯度的全数值方法来构建近似消失理想的基础算法,以解决现有算法需要使用不方便的单项式顺序或指数级昂贵的计算的问题,并实现了输入平移和缩放的一致输出,实现了非平凡冗余基础的删除。此外,该文针对此前的算法未能解决的问题,实现了数值完整的基础构建方法。
Nov, 2019
本文首次研究了基于神经网络的多输入算子回归问题,并证明了连续多输入算子的通用逼近定理。基于此,结合低秩分解,提出了一个新的神经算子MIONet,可应用于求解由常微分方程和偏微分方程控制的系统。同时研究了提高神经算子精度的方法,如先验知识的引入。
Feb, 2022
论文证明了对于$C^r$-或Lipschitz-正则性唯一确定的一般类算子而言,算子学习存在维度灾难,但是解决Hamilton-Jacobi方程定义的解算子的一般维度灾难问题时可以利用底层解算子的附加结构,引入了一种新的神经算子结构HJ-Net,该结构明确考虑了底层哈密顿系统的特征信息,从而可以打破无限维输入和输出函数空间相关的维度诅咒。
Jun, 2023
我们建立了一类神经深度操作符网络(DON)的普遍性和表达速度上界,这些网络模拟了(子集)可分离希尔伯特空间 X 到 Y 之间的Lipschitz(或Hölder)连续映射 G。与之前的工作不同,这些表达速率结果仅需G的 Lipschitz(或Hölder)连续性,并且证明这些表达速率界的关键在于使用超表达激活或非标准的包含标准(ReLU)激活函数的神经网络架构。我们通过近似速率界来说明这些抽象结果,其中包括参数椭圆变分不等式的解算符以及希尔伯特-施密特算子的Lipschitz映射。
Jul, 2023
通过分析高度表达力模型的基本结构元素,我们引入了一个表达力类别的层次结构,将全局可近似性属性与无限VC维度的弱属性相连接,并证明了几个逐渐复杂的功能族的分类结果。特别地,我们介绍了一个通用的多项式-指数-代数功能族,经证明它受到了多项式约束。作为结果,我们表明具有不超过一层具有超越激活函数(如正弦或标准sigmoid)的固定大小的神经网络通常无法近似任意有限集上的函数。另一方面,我们提供了包括两层隐藏层神经网络在内的函数族的示例,它们在任意有限集上可近似函数,但在整个定义域上却无法做到。
Nov, 2023
这篇论文介绍了一种用于研究有限离散数据的解析映射的理论框架,阐明了多元情境中最小二乘多项式逼近的数学机理。通过考虑局部解析泛函空间的推前作用,而非直接处理解析映射本身,我们确立了一种从离散数据中适当进行推前的有限维逼近方法,通过Fourier- Borel变换和Fock空间的理论。此外,我们证明了一个带有收敛速率的严格收敛结果。作为应用,我们证明了逼近解析函数的并进一步实现超过数据分布支撑的多项式不是最小二乘多项式,而是通过截断其高阶项得到的多项式。我们理论的一个优势是它使我们能够对推前的有限维逼近应用线性代数运算。利用这一点,我们证明了从普通微分方程的流图的有限数据逼近解析向量场的方法的收敛性。
Apr, 2024
应用Leray-Schauder映射,在任意Banach空间上获得了连续算子的新的普遍逼近定理,并在函数的多个变量的Banach空间$L^p$中基于多项式基的正交投影引入并研究了一种算子学习方法。在一些额外假设下,我们导出了学习线性投影和有限维映射的算子的普遍逼近结果。针对$p=2$的情况,我们给出了逼近结果成立的一些充分条件。本文是深度学习方法论的理论框架,其具体实现将在后续工作中提供。
Jun, 2024
基于神经算子的算子学习已成为一种有前景的通过数据驱动的方法,在无限维巴拿赫空间中进行算子近似。本研究针对利普希茨连续算子的神经算子近似的参数复杂性进行了探索,从信息论的角度建立了利普希茨算子的度量熵的下界,并指出神经算子架构的大小在达到近似精度ε时必须是指数级的。这项研究的结果阐明了基本的权衡和限制。
Jun, 2024
本研究解决了在Banach空间间学习算子的具体问题,提出了一种基于勒雷-肖德映射的算法,能够学习紧子空间的有限维逼近。研究表明,该方法是一种通用的算子逼近器,并在两个基准数据集上展示了其与最先进模型相当的效率。
Oct, 2024
本文提出了一种新的算子学习方法——基于基函数的算子学习(B2B),旨在解决高维空间中算子的学习问题。通过将学习任务分解为输入和输出空间基函数的学习以及基函数系数之间非线性映射的学习,B2B算法有效克服了数据固定位置等挑战。研究表明,该方法在多个基准任务中的准确性提升了两个数量级,展示了其显著的应用潜力。
Sep, 2024