一种用于终身学习的 PAC-Bayesian 边界
我们介绍了一个新的框架,使用 PAC-Bayesian 理论来研究元学习方法。该框架相比以往的工作的主要优势在于它允许在任务之间的知识转移方面更加灵活。我们的框架的灵活性使其适用于分析广泛范围的元学习机制,甚至设计新的机制。除了理论贡献外,我们还通过经验证明我们的框架提高了实际元学习机制的预测质量。
Feb, 2024
该研究旨在提供信息论概括界限及其与 PAC-Bayes 的关联的全面介绍,为最近的发展提供基础,广泛面向对概括和理论机器学习感兴趣的研究人员。
Sep, 2023
用 PAC-Bayesian 理论为学习优化问题提供了第一个具备可证估计以及收敛保证和收敛速度权衡的框架,学习出的优化算法在比起仅从最坏情况分析得出的算法上具备可证的优越性能,基于指数族的 PAC-Bayesian 上界对一般的、可能无界的损失函数提供了可行性,我们通过将学习过程转化为一维最小化问题并研究全局最小值的可能性,提供了一个具体算法实现和学习优化的新方法,并进行了四个实际相关的实验来支持我们的理论,展示出该学习框架使得优化算法的性能有了数个数量级的改进。
Apr, 2024
本文研究使用参数转移方法进行转移学习问题,介绍了基于参数特征映射的局部稳定性和参数转移可学习性,并推导了参数转移算法的学习界限。作为参数转移学习的应用,讨论了自学习中稀疏编码的性能,并提供了自学习的第一个理论学习界限。
Oct, 2016
本研究提出了关于深度学习的泛化误差的准则,介绍了一种基于边际似然的 PAC-Bayesian Bound 方法来预测泛化误差,并进行了广泛实证分析以评估该方法的效果和特性。
Dec, 2020
本文提出了从在线学习的角度推导统计学习算法的泛化界限的新框架,建立在线学习算法与统计学习算法之间的联系,通过构造一种在线学习游戏来实现该框架并得到多种泛化保证。
May, 2023
本文首次在信息理论的背景下,为传导学习算法开发了数据相关性和算法相关性的一般化界限。我们表明传导学习算法的一般化差距可以通过训练标签和假设之间的互信息来限制。通过创新性地提出传导超样本的概念,我们超越归纳学习设置,并建立了各种信息测量的上界。此外,我们派生了新颖的 PAC-Bayesian 界限,并建立了传导学习环境下一般化与损失曲面平坦性之间的联系。最后,我们提出了自适应优化算法的上界,并展示了在半监督学习和图学习场景中的应用结果。我们的理论结果在合成数据集和真实世界数据集上得到验证。
Nov, 2023
本文提出了一种在线的迁移学习方法,通过对任务内算法中底层的数据表示进行改进,实现跨任务信息转移,同时证明了该方法拥有良好的成本控制性质,并讨论了其在字典学习和有限预测器中的应用。
Oct, 2016