关键词laplacian regularization
搜索结果 - 5
- 使用拉普拉斯正则化的联邦多任务学习的新视角和收敛速率
本论文提出了两种算法 FedU 和 dFedU,解决了非独立同分布数据分布导致联邦学习性能下降的问题,并在实验中表现出比现有算法更好的收敛速度和性能,同时指出所提出的联邦多任务学习问题可以用于常规 FL 和个性化 FL 任务。
- ICML拉普拉斯正则化少样本学习
本文提出了一种基于拉普拉斯正则化的推导式推理方法,用于 few-shot 任务中的图聚类,以支持来自支持集的监督性约束。实验结果表明,在五个 few-shot 学习基准测试中,LaplacianShot 方法具有显著优于现有方法的性能表现。
- 半监督学习的适当加权图拉普拉斯算子
本文介绍了一种针对大数据量下半监督学习中图拉普拉斯方法性能下降问题的解决方案,通过正确设置拉普拉斯正则化的权重使得估计器在大样本情况下保持良好状态,并证明了其收敛性,最终实现连续达到标记值的问题平滑解,且方法实现快捷简便。
- Sobolev GAN
本文提出了一个新的在分布之间比较均值差异的积分概率度量(Integral Probability Metric,简称 IPM):Sobolev IPM。Sobolev IPM 可以被看作是高维分布的一维 Von-Mises Cramér 统 - 半监督学习中基于 $\ell_p$ 的拉普拉斯正则化的渐近行为
以 $L_p$-Laplacian 正则化为基础的半监督学习算法采用 $d$ 维几何随机图模型给出了理论推导,证明了当 $N$ 趋于无穷大而 $n$ 保持不变时, 估计函数的性能,证明了在 $P$ 的敏感度和置信度之间存在权衡,表明选择 $