PAC-Bayesian 学习初探
我们介绍了一个新的框架,使用 PAC-Bayesian 理论来研究元学习方法。该框架相比以往的工作的主要优势在于它允许在任务之间的知识转移方面更加灵活。我们的框架的灵活性使其适用于分析广泛范围的元学习机制,甚至设计新的机制。除了理论贡献外,我们还通过经验证明我们的框架提高了实际元学习机制的预测质量。
Feb, 2024
该研究旨在提供信息论概括界限及其与 PAC-Bayes 的关联的全面介绍,为最近的发展提供基础,广泛面向对概括和理论机器学习感兴趣的研究人员。
Sep, 2023
在训练之前,利用 PAC-Bayes 和优化算法之间的联系,扩展 Wasserstein PAC-Bayes 框架,基于损失函数的几何假设提供新的泛化界,并证明了算法输出具有强大的渐近泛化能力。
Apr, 2023
用 PAC-Bayesian 理论为学习优化问题提供了第一个具备可证估计以及收敛保证和收敛速度权衡的框架,学习出的优化算法在比起仅从最坏情况分析得出的算法上具备可证的优越性能,基于指数族的 PAC-Bayesian 上界对一般的、可能无界的损失函数提供了可行性,我们通过将学习过程转化为一维最小化问题并研究全局最小值的可能性,提供了一个具体算法实现和学习优化的新方法,并进行了四个实际相关的实验来支持我们的理论,展示出该学习框架使得优化算法的性能有了数个数量级的改进。
Apr, 2024
该研究利用分解的 PAC-Bayes 边界框架得出一个可适配任意复杂度度量的一般泛化边界,其中关键步骤是考虑一系列常用的分布:Gibbs 分布。该边界在概率上同时适用于假设和学习样本,允许复杂度根据泛化差距进行调整,以适应假设类和任务。
Feb, 2024
通过 PAC-Bayes 和算法稳定性的结合研究了随机梯度下降算法的泛化误差,提出了一种基于后验优化的自适应采样算法,并在基准数据集上进行评估。结果表明,相较于均匀采样,自适应采样既可以更快地降低经验风险,也可以提高样本外准确性。
Sep, 2017
本文通过变分逼近 Gibbs posterior 的优化分布,从而实现和原始 PAC-Bayesian 程序同样的收敛速度,以替代通常过慢的 Markov chain Monte Carlo 方法,在多个学习任务中(分类、排名、矩阵完成)取得了良好结果。
Jun, 2015
该研究提出了一种使用 PAC-Bayesian 边界来直接优化 GPs 及其稀疏逼近的方法,相比于最大化边缘似然的常规方法,该方法具有更好的稳健性和泛化性能,并在多个回归基准数据集上获得了显着的泛化保证。
Oct, 2018