基于 Lipschitz 学习的图算法
以 $L_p$-Laplacian 正则化为基础的半监督学习算法采用 $d$ 维几何随机图模型给出了理论推导,证明了当 $N$ 趋于无穷大而 $n$ 保持不变时, 估计函数的性能,证明了在 $P$ 的敏感度和置信度之间存在权衡,表明选择 $p = d +1$ 是最优的选择。
Mar, 2016
本研究探讨了半监督学习中的回归问题,以随机几何图形模拟数据几何结构,将离散的 $p$- 拉普拉斯正则化纳入模型,研究了无标记点数增加时渐近表现的性质,发现模型存在收敛性限制,提出了一个简单的模型来解决这一限制。
Jul, 2017
本文提出了一个基于图的学习框架来训练在对抗扰动下具有稳健性的模型,并通过 Lipschitz 约束将对抗性稳健学习问题形式化为损失最小化问题,设计了一个稳健训练方案来收敛到拉格朗日函数的鞍点。 最终通过实验表明,在达到期望的标准表现的同时提高模型的稳健性存在一定的基本下限。
Jun, 2020
提出了一种基于 Lipschitz extension 的回归框架,通过结构风险最小来避免过拟合,使用凸优化求解离线学习及在线预测,同时解决了大数据集的处理问题。
Nov, 2011
探索了超图结构在不包含显式结构信息的点云数据插值中的优势,并证明了超图 $p$-Laplacian 正则化与连续型 $p$-Laplacian 正则化的变分一致性,利用随机原始 - 对偶混合梯度算法解决了凸但不可微的大规模优化问题,并通过数值实验验证了超图 $p$-Laplacian 正则化相对于图 $p$-Laplacian 正则化在防止标记点处出现尖峰的效果更好。
May, 2024
本文主要研究了基于 Lipschitz extensions 的多维函数计算,并使用推广指数机制设计了有差分隐私的图的度数分布的近似计算算法。
Apr, 2015
研究神经网络与输入的 Lipschitz 连续性约束,提供一种计算前馈神经网络 Lipschitz 常数上界的简单技术,进而以受限优化问题的形式训练神经网络并使用投影随机梯度方法求解,实验证明该方法优于其他常用规则化器,特别是在仅有少量训练数据时。
Apr, 2018
本研究探讨了在学习排序问题中,利普希茨连续性和平滑性如何影响泛化误差,并使用∞-norm 改进了现有界限。此外,选择好的范数使得在平滑性假设下,我们证明了介于 1 / 根号 n 和 1/n 之间的比率。
May, 2014
研究了图上半监督学习中的博弈论 p-Laplacian,展示了在有限标记数据和无限未标记数据的情况下其是有限的。具体而言,我们展示了带有图上半监督学习的连续 p-Laplace 方程的连续极限是加权版本。我们还证明图 p-Laplace 方程的解近似是 Holder 连续的高概率。
Nov, 2017
使用规则随机投影将度量空间线性扩展 Lipschitz 和 $C^1$ 函数,进而更直接地证明了 Lee 和 Naor 的结果,并将 Whitney 的 $C^1$ 扩展定理推广到了 Banach 空间。
Jan, 2018