以 $L_p$-Laplacian 正则化为基础的半监督学习算法采用 $d$ 维几何随机图模型给出了理论推导,证明了当 $N$ 趋于无穷大而 $n$ 保持不变时, 估计函数的性能,证明了在 $P$ 的敏感度和置信度之间存在权衡,表明选择 $p = d +1$ 是最优的选择。
Mar, 2016
探索了超图结构在不包含显式结构信息的点云数据插值中的优势,并证明了超图 $p$-Laplacian 正则化与连续型 $p$-Laplacian 正则化的变分一致性,利用随机原始 - 对偶混合梯度算法解决了凸但不可微的大规模优化问题,并通过数值实验验证了超图 $p$-Laplacian 正则化相对于图 $p$-Laplacian 正则化在防止标记点处出现尖峰的效果更好。
May, 2024
研究了图上半监督学习中的博弈论 p-Laplacian,展示了在有限标记数据和无限未标记数据的情况下其是有限的。具体而言,我们展示了带有图上半监督学习的连续 p-Laplace 方程的连续极限是加权版本。我们还证明图 p-Laplace 方程的解近似是 Holder 连续的高概率。
Nov, 2017
本文介绍了一种针对大数据量下半监督学习中图拉普拉斯方法性能下降问题的解决方案,通过正确设置拉普拉斯正则化的权重使得估计器在大样本情况下保持良好状态,并证明了其收敛性,最终实现连续达到标记值的问题平滑解,且方法实现快捷简便。
Oct, 2018
本文讲述了如何基于 Lipschitz 扩展来实现图上回归问题,包括最小 Lipschitz 扩展和绝对最小 Lipschitz 扩展,它们能够实现多项式时间的正则化。
May, 2015
本文将图 Laplacian 和微分几何的类比推广到超图 setting,进而提出了一种新的超图 $p$-Laplacian 以及一种基于此的半监督学习方法,并进一步探索了与超图 cut 和 normalized cut 的一般形式的关系和区别, 最终在超图的半监督学习和 normalized cut 方面表现出优异的性能。
在图神经网络中,传统的图拉普拉斯正则化对现有 GNN 的性能提升不大,提出了一种名叫 P-reg 的图拉普拉斯正则化变体,可以有效增加信息熵,提升现有 GNN 模型在节点级和图级任务上的性能。
Sep, 2020
本文考虑正则化回归问题,其中先验正则化器是一个凸函数并对于黎曼子流形是部分光滑的,我们研究了任何正则化最小化器对观察值微小扰动的敏感性,并提供了其精确的本地参数化。我们的主要敏感性分析结果表明,在观测变化微小地情况下,预测变化在同一活动子流形上局部稳定。
Apr, 2014
该论文主要概述了偏微分方程与基于图的半监督学习的交叉领域,重点介绍了最近关于图基学习的 PDE 连续极限的大量研究,用于证明大数据极限下半监督学习算法的适定性。我们强调了一些围绕图基半监督学习的一致性的有趣研究方向,并通过 p-Laplacian 的随机拔河游戏解释提出了 p-Laplacian 半监督学习的一致性的新结果。我们还展示了一些数值实验的结果,并提出了未来研究的方向。
Jan, 2024
本文研究了具有可能不同边缘概率的随机图,位于期望度数有限的稀疏区域。通过在邻接矩阵的每个条目中添加数量级为 1/n 的常数,达到正则化的效果,证明了其集中作用,从而证实了在随机块模型下基于正则化谱聚类的一种最简单和最快速的社区检测方法的有效性。
Feb, 2015