基于Wasserstein的高概率泛化界学习
展示了贝叶斯边际似然和频率PAC-Bayesian风险边界之间的联系;在最小化PAC-Bayesian广义化风险上推导了最大化贝叶斯边际似然;针对未约束损失函数提出了适用于亚伽马损失函数族的PAC-Bayesian定理,并在贝叶斯线性回归任务中表明其方法的有效性。
May, 2016
本文旨在扩展Rademacher复杂性和最新PAC-贝叶斯理论之间的桥梁,首先通过平移Rademacher过程来匹配Catoni PAC-Bayes界限的快速率,然后最新地导出了快速PAC-Bayes界限,重点是后验集中在的经验风险表面的“平坦度”。
Aug, 2019
此论文介绍了基于Wasserstein分布鲁棒优化的数据驱动决策方法,能够解决样本有限、参数不确定的情况下,采用仅仅通过数据学习决策的问题,绕过测试样本不能涵盖所有情况的问题,具有良好的效果且容易计算。此方法对于分类、回归等基本学习任务有很好启示作用。
Aug, 2019
该研究探讨了基于数据相关分布的随机预测模型在训练后的泛化能力以及基于 PAC-Bayes 分析的上界推导方法,同时研究了使用数据相关先验分布的应用,包括针对无界方差的损失函数的一种新颖的边界推导方法。
Jun, 2020
在训练之前,利用PAC-Bayes和优化算法之间的联系,扩展Wasserstein PAC-Bayes框架,基于损失函数的几何假设提供新的泛化界,并证明了算法输出具有强大的渐近泛化能力。
Apr, 2023
该论文通过对MNIST数据集进行实验,研究了PAC-Bayes参数约束为分解高斯分布时在优化PAC-Bayes界限时可能损失的紧密度,结果表明在某些情况下存在5-6%的显著紧密度差距。
Oct, 2023
通过使用(f,Γ)差异得出新的PAC-Bayes广义边界,本文还提供了一系列概率差异(包括但不限于KL、Wasserstein和总变差)的PAC-Bayes广义边界,在后验分布性质不同的情况下选择最佳解,我们探索了这些边界的紧密程度并与统计学习的之前结果联系起来,这也是特定情况。此外,我们将这些边界作为训练目标实例化,提供非平凡的保证和实际性能。
Feb, 2024
现代机器学习通常涉及超参数设置(训练参数数量大于数据集大小),它们的训练结果不仅在训练数据上表现良好,而且具有良好的泛化能力。本文通过与PAC-Bayes工具箱相结合的Poincaré和Log-Sobolev不等式提供了新的包含梯度项的泛化界限,避免了对预测空间维度的明确依赖。我们的结果突出了“平坦极小值”对泛化性能的积极影响,直接涉及了优化阶段的益处。
Feb, 2024
用PAC-Bayesian理论为学习优化问题提供了第一个具备可证估计以及收敛保证和收敛速度权衡的框架,学习出的优化算法在比起仅从最坏情况分析得出的算法上具备可证的优越性能,基于指数族的PAC-Bayesian上界对一般的、可能无界的损失函数提供了可行性,我们通过将学习过程转化为一维最小化问题并研究全局最小值的可能性,提供了一个具体算法实现和学习优化的新方法,并进行了四个实际相关的实验来支持我们的理论,展示出该学习框架使得优化算法的性能有了数个数量级的改进。
Apr, 2024
本研究解决了PAC-Bayesian分类中的错分类风险界限问题,尤其在使用凸替代损失时的局限性。研究提出了一种新颖的方法,通过期望的PAC-Bayesian相对界限而非概率界限来建立错分类超额风险界限。该方法在若干重要应用中得到了验证,展示了其潜在的广泛影响。
Aug, 2024