不需要伴随算子的操作符学习
本文重新审视了用于学习拉丁变量模型的谱方法,并给出了新的视角。通过在有限子集上定义目标函数,该方法被推广为一种类谱优化方法,并发现连续正则化参数允许更好地平衡模型的准确性和复杂度,同时证明了随机选择本地损失函数的普遍有效性。
Jun, 2012
论文证明了对于$C^r$-或Lipschitz-正则性唯一确定的一般类算子而言,算子学习存在维度灾难,但是解决Hamilton-Jacobi方程定义的解算子的一般维度灾难问题时可以利用底层解算子的附加结构,引入了一种新的神经算子结构HJ-Net,该结构明确考虑了底层哈密顿系统的特征信息,从而可以打破无限维输入和输出函数空间相关的维度诅咒。
Jun, 2023
在线学习设置下,研究了在两个无限维希尔伯特空间之间的线性运算符学习问题。通过证明定理,得出了具有统一有界p-Schatten范数的线性运算符类是可在线学习的,但具有统一有界操作符范数的线性运算符类是不可在线学习的结论。同时,通过识别出一类有界线性运算符,证明了在线统一收敛和学习性之间的差异。最后,证明了上述的不可学习性结果和统一收敛性与学习性之间的差异性在agnostic PAC设置下仍然成立。
Sep, 2023
本研究提出一种基于伴随方法的优化问题,用于从数据中发现潜在的偏微分方程,通过考虑参数化的偏微分方程形式,并最小化PDE解与数据之间的误差来计算PDE参数的梯度。该方法通过变分计算获取了保正参数的演化方程,可以精确地还原真实的PDE,尽管在存在噪声的情况下,方法精确度与PDE-FIND方法相当。
Jan, 2024
本研究通过随机梯度下降(SGD)来学习一般希尔伯特空间之间的运算符,依据目标运算符的弱和强正则条件,建立了SGD算法的收敛速度的上界,进行了极小-极大下界分析,进一步说明了我们的收敛分析和正则性条件定量地刻画了使用SGD算法解决运算符学习问题的可解性。我们还展示了SGD估计器将收敛到非线性目标运算符的最佳线性逼近。此外,将我们的分析应用于基于向量值和实值再生核希尔伯特空间的运算符学习问题,得到了新的收敛结果,从而完善了现有文献的结论。
Feb, 2024
Fourier Neural Mappings (FNMs) framework introduces computationally efficient surrogates for parametrized physical models using the operator learning perspective, accommodating finite-dimensional inputs and outputs and demonstrating benefits for approximating nonlinear parameter-to-observable (PtO) maps.
Feb, 2024
应用Leray-Schauder映射,在任意Banach空间上获得了连续算子的新的普遍逼近定理,并在函数的多个变量的Banach空间$L^p$中基于多项式基的正交投影引入并研究了一种算子学习方法。在一些额外假设下,我们导出了学习线性投影和有限维映射的算子的普遍逼近结果。针对$p=2$的情况,我们给出了逼近结果成立的一些充分条件。本文是深度学习方法论的理论框架,其具体实现将在后续工作中提供。
Jun, 2024
基于神经算子的算子学习已成为一种有前景的通过数据驱动的方法,在无限维巴拿赫空间中进行算子近似。本研究针对利普希茨连续算子的神经算子近似的参数复杂性进行了探索,从信息论的角度建立了利普希茨算子的度量熵的下界,并指出神经算子架构的大小在达到近似精度ε时必须是指数级的。这项研究的结果阐明了基本的权衡和限制。
Jun, 2024
本研究解决了在函数空间中学习算子时存在的三种主要误差,包括统计误差、截断误差和离散化误差。通过分析基于离散傅里叶变换的最小二乘估计器,本文建立了这些误差的上下界,提供了一种新的视角来理解傅里叶神经算子的学习过程,对提高其应用效果具有潜在影响。
Aug, 2024
本研究解决了在Banach空间间学习算子的具体问题,提出了一种基于勒雷-肖德映射的算法,能够学习紧子空间的有限维逼近。研究表明,该方法是一种通用的算子逼近器,并在两个基准数据集上展示了其与最先进模型相当的效率。
Oct, 2024