在流形上进行函数逼近的特征
研究紧致黎曼流形上 Laplace-Beltrami 算子的特征函数,提出了特征函数的梯度估计,并给出了梯度估计的上下界,其中正常数 C 只取决于该流形。
May, 2009
本文以一种抽象的定理为基础,证明了解决函数逼近中避免维数噪声以及用于流形学习的样本外推的逼近度的两个问题。作者建立了一种浅层网络和深度网络的模型来证明这个定理,并给出了应用案例。
Aug, 2019
论文研究了一个新的、广义的针对函数空间的目标函数,应用于机器学习中核函数和数据分布定义的积分算子的主特征向量的训练。该方法通过近似高斯牛顿矩阵来实现线性化的深度神经网络在现代图像分类数据集上的扩展,能够提供对多元函数的准确逼近。
Apr, 2022
研究随机采样的流形上的图拉普拉斯矩阵与 Laplace-Beltrami 算子的谱收敛,证明可以通过与流形热核进行卷积来构造近似的本征函数,从而实现本征值和本征向量的收敛,证明了多维数据中的收敛率和一些低本征值的点与 Dirichlet 形式收敛之间的联系,进一步证明了密度校正图拉普拉斯下的点和 Dirichlet 形式收敛速度。
Jan, 2021
探讨了正定核及其相关重现核希尔伯特空间的逼近性质,包括核算子和矩阵的特征值衰减、特征函数 / 特征向量的性质、核空间中函数的 “傅里叶” 系数以及核的拟合能力等,并给出了限制在离散数据点上的重现核希尔伯特空间球体的胖打散维度的明确界限,讨论了正定核的容量限制及其对梯度下降等算法的影响。
Jan, 2018
统计学习中的各种方法建立在再生核 Hilbert 空间中的核上。在应用中,核通常根据问题和数据的特征进行选择,然后用于在未观察到解释性数据的点处推断响应变量。本文考虑了在高维紧致集合中定位的数据,并且对核本身的近似进行了讨论。新的方法考虑了径向核函数的 Taylor 级数近似。对于单位立方上的 Gauss 核,本文建立了关联特征值的上限,该特征仅在指数方面呈多项式增长。新方法证实了比文献中考虑的较小正则化参数,从而导致更好的近似。该改进证实了像 Nyström 方法这样的低秩近似方法。
Mar, 2024
提出一种基于核的方法,用于构建定义函数,它可以应用于从完全维数的流形到点云的任意有界光滑流形的内插和分析,通过线性组合平移核函数得到签名函数,可用于估计维数、法向量和曲率,方法以全局性、不依赖于数据集中其他结构的特点,通过一种变分形式进行正则化,克服了噪音和误差的问题。
Mar, 2024
本篇论文研究神经网络在通过渐变流优化均方误差时在函数空间中的动态学习,证明了在参数不足的情况下,网络以特定的速率学习由神经切向核(NTK)决定的积分算子 T_K^∞的特征函数,从而展现了在参数不足的情况下的光谱偏置。
Jan, 2022
本文提出了一种基于深度学习的算法,用于在未知流形中函数的扩展问题上。该算法使用多层神经网络和局部坐标系统来实现函数近似,同时保证输出的误差范围与目标函数的导数数量成正比,并在不需要目标函数的光滑性的情况下自动调整精度。
Jul, 2016