半监督学习的适当加权图拉普拉斯算子
研究了图上半监督学习中的博弈论 p-Laplacian,展示了在有限标记数据和无限未标记数据的情况下其是有限的。具体而言,我们展示了带有图上半监督学习的连续 p-Laplace 方程的连续极限是加权版本。我们还证明图 p-Laplace 方程的解近似是 Holder 连续的高概率。
Nov, 2017
以 $L_p$-Laplacian 正则化为基础的半监督学习算法采用 $d$ 维几何随机图模型给出了理论推导,证明了当 $N$ 趋于无穷大而 $n$ 保持不变时, 估计函数的性能,证明了在 $P$ 的敏感度和置信度之间存在权衡,表明选择 $p = d +1$ 是最优的选择。
Mar, 2016
本研究探讨了半监督学习中的回归问题,以随机几何图形模拟数据几何结构,将离散的 $p$- 拉普拉斯正则化纳入模型,研究了无标记点数增加时渐近表现的性质,发现模型存在收敛性限制,提出了一个简单的模型来解决这一限制。
Jul, 2017
通过概率测度采样子流形在欧几里得空间的样本,可以构造一个邻域图,作为子流形的近似。本文确定了文献中使用的三种不同图 Laplacian 在样本大小增加且邻域大小趋近于零时的点态极限。我们表明,在子流形上的均匀测度下,所有图 Laplacians 在常数的意义下均具有相同的极限。然而,对于在子流形上的非均匀测度的情况,只有所谓的随机游走图 Laplacian 收敛于加权 Laplace-Beltrami 算子。
Aug, 2006
该论文主要概述了偏微分方程与基于图的半监督学习的交叉领域,重点介绍了最近关于图基学习的 PDE 连续极限的大量研究,用于证明大数据极限下半监督学习算法的适定性。我们强调了一些围绕图基半监督学习的一致性的有趣研究方向,并通过 p-Laplacian 的随机拔河游戏解释提出了 p-Laplacian 半监督学习的一致性的新结果。我们还展示了一些数值实验的结果,并提出了未来研究的方向。
Jan, 2024
本文提出了一种图拉普拉斯图卷积网络 (gLGCN) 方法,该方法通过编码图结构和节点特征同时保持局部不变性约束,用于图数据表示和半监督分类,并在实验中证明了其有效性。
Sep, 2018
提出了一种基于高斯过程的贝叶斯方法对图中的半监督学习问题进行高效数据处理,与目前最先进的图神经网络相比,该模型表现出极强的竞争力,在标记稀少的主动学习实验中超越了神经网络,并且模型不需要验证数据集来控制过拟合。
Sep, 2018
本文讨论了 Laplacian regularized stratified models (LRSM) 的图权重敏感性问题,并提出了一种通用的学习图权重和模型参数的解决方案。我们从图连通性和贝叶斯视角解释了所提出的公式,并提出了一种有效的算法来解决问题。我们还提供了所提出的优化算法的收敛保证,最后我们通过各种现实世界的数值例子证明了我们的方法相对于现有方法的效率。
May, 2023