广义界限:信息论和 PAC-Bayes 的视角
该研究利用分解的 PAC-Bayes 边界框架得出一个可适配任意复杂度度量的一般泛化边界,其中关键步骤是考虑一系列常用的分布:Gibbs 分布。该边界在概率上同时适用于假设和学习样本,允许复杂度根据泛化差距进行调整,以适应假设类和任务。
Feb, 2024
文中提出了一种利用概率去相关引理、对测度空间中的的概率测度进行对称化、配对和链化等技术来获得学习算法信息论泛化界限的一般性方法,进而得到新的期望值和高概率条件下泛化误差的上界,特别地,还包括了基于互信息、条件互信息、随机链和 PAC-Bayes 不等式等现有泛化界限的特例。此外,Fernique-Talagrand 上界也是一个特例。
May, 2023
该论文提出了一个信息理论框架来研究机器学习算法的泛化性能,利用条件互信息量化算法输出和训练数据之间的关系,并提出基于 VC 维、压缩方案、差分隐私等方法来获得有界的条件互信息,从而得出泛化的各种形式。
Jan, 2020
本文首次在信息理论的背景下,为传导学习算法开发了数据相关性和算法相关性的一般化界限。我们表明传导学习算法的一般化差距可以通过训练标签和假设之间的互信息来限制。通过创新性地提出传导超样本的概念,我们超越归纳学习设置,并建立了各种信息测量的上界。此外,我们派生了新颖的 PAC-Bayesian 界限,并建立了传导学习环境下一般化与损失曲面平坦性之间的联系。最后,我们提出了自适应优化算法的上界,并展示了在半监督学习和图学习场景中的应用结果。我们的理论结果在合成数据集和真实世界数据集上得到验证。
Nov, 2023
通过指数不等式的方法,我们研究了随机学习算法的泛化误差的界限和概率分布,针对亚高斯损失函数提供了以训练数据和输出假设之间信息密度为依据的新的界限,并将该方法扩展到了基于随机选择训练数据子集的情况。
May, 2020
本研究提出了关于深度学习的泛化误差的准则,介绍了一种基于边际似然的 PAC-Bayesian Bound 方法来预测泛化误差,并进行了广泛实证分析以评估该方法的效果和特性。
Dec, 2020
我们从 PAC-Bayesian 的角度提出了数据相关的均匀泛化界,通过将训练算法输出的数据相关假设集应用于随机集的严格方法,我们证明了数据相关的界,适用于多种情境,并将此方法应用于基于分形维度的泛化界和连续 Langevin 动力学以及随机梯度 Langevin 动力学的轨迹上,这些结果为噪声算法的泛化特性提供了新的信息。
Apr, 2024