PAC$^m$-Bayes:缩小误差贝叶斯模型的经验风险差距
展示了贝叶斯边际似然和频率 PAC-Bayesian 风险边界之间的联系;在最小化 PAC-Bayesian 广义化风险上推导了最大化贝叶斯边际似然;针对未约束损失函数提出了适用于亚伽马损失函数族的 PAC-Bayesian 定理,并在贝叶斯线性回归任务中表明其方法的有效性。
May, 2016
前向论合理化了模型的泛化错误上界,为学习提供了健壮的 PAC-Bayes 边界。然而,已知损失的最小化会忽略错误规范化,在此情况下模型无法完全复现观测结果。我们分析了近确定、错误规范化和欠参数化替代模型的泛化错误,这是科学和工程中广泛相关的一种情况。我们证明了后验分布必须覆盖每个训练点以避免泛化错误的发散,并导出了一种满足此约束条件的集合假设,对线性模型而言额外开销最小。这种高效方法在模型问题上得到了证明,并应用于原子尺度机器学习中的高维数据集,由错误规范化导致的参数不确定性在欠参数化极限中仍然存在,从而可以准确预测和限定测试误差的上限。
Feb, 2024
该研究探讨了基于数据相关分布的随机预测模型在训练后的泛化能力以及基于 PAC-Bayes 分析的上界推导方法,同时研究了使用数据相关先验分布的应用,包括针对无界方差的损失函数的一种新颖的边界推导方法。
Jun, 2020
提出了一种新的学习理论复杂性概念,它在经验风险最小化和贝叶斯估计器的情况下分别以数据无关的 Rademacher 复杂度和数据相关的信息复杂度进行上限绑定,并通过 Rademacher 复杂度将其与 $L_2 (P)$ 熵进行关联。该研究进一步使用 ' 易于理解 ' 和模型复杂性等相互分离的方法,提供适用于 VC 和多项式熵类的最优性差距上限。
Oct, 2017
提供了一种贝叶斯视角的数学方法,支持使用 logged bandit feedback 进行离线学习,提出了一种新的 generalization bound 来估算社会可接受的风险,并引入了一种新的正则化技术来避免过拟合。
Jun, 2018
本文通过变分逼近 Gibbs posterior 的优化分布,从而实现和原始 PAC-Bayesian 程序同样的收敛速度,以替代通常过慢的 Markov chain Monte Carlo 方法,在多个学习任务中(分类、排名、矩阵完成)取得了良好结果。
Jun, 2015
本文介绍了基于 Wasserstein 距离的 PAC-Bayesian 泛化边界,并从分别适用于批量学习与独立同分布数据和在线学习的角度进行了证明,并获得了用于 SRM 的可优化培训目标。
Jun, 2023
这篇论文简要介绍了现有的 PAC-Bayesian 理论,重点关注三种泛化界限及其应用,可以有效地处理规则参数及提供训练保障。
Jul, 2013
该论文提出了一种新的高概率 PAC-Bayes 界限,其中涉及到了带界范围和更一般尾部行为的损失,并提出了一些新的基于参数和基于事件的界限技术,可以得到更紧密和可解释的结果,并将结果扩展到任何现有范围上
Jun, 2023
提出了一种新的 PAC-Bayesian 界并构建了假设空间,使界在后验分布上是凸的,在经验性能与复杂性之间的折衷参数上也是凸的。通过 KL 散度来测量复杂性。提出了一种交替过程来最小化这个界,并给出了一个足够的条件,使得函数具有单一的全局最小值。提供实验结果表明,严格最小化该界在调整复杂性和经验性能之间的权衡方面与交叉验证相媲美。在所有实验中,即使违反了足够的条件,折衷结果仍然是凸的。
Aug, 2016