多类别贝叶斯误差约束学习
本文提出了一种层次经验贝叶斯方法,以解决实际问题中面临的挑战,即缺乏信息先验和无法控制参数学习速率的问题。该方法从数据本身学习经验元先验,并将它们用于解耦 GLM 中的一阶和二阶特征的学习速率。作者将其应用于标准监督学习优化问题以及在线组合优化问题中,在实验中表现出了显著的改进。
Feb, 2020
利用信息论推导出监督学习算法的泛化误差的信息熵上界,能够更全面地考虑损失函数的条件,并且在应用于嘈杂和迭代算法时能够给出比现有结果更紧密的泛化误差表征。
Jan, 2019
本文提出了一个信息理论框架,用于评估在参数化贝叶斯设置下训练分类器所需的标记样本数量,并使用 $L_p$ 距离导出分类器和真实后验概率分类器之间的平均距离的上下界,并利用 $ L_p $ 丢失作为畸变度量,以后验分布的微分熵和插值维度的数量为最大先验分类器提供了下界和上界,这表征了参数分布族的复杂性,同时提供了计算贝叶斯 $L_p$ 风险的下界,是可能近似正确(PAC)框架的补充,该框架提供了涉及 Vapnik-Chervonenkis 维度或 Rademacher 复杂性的最小极大风险界,而所提出的速率 - 失真框架则为数据分布平均的风险提供了下界。
May, 2016
本研究提出了一种简单直接的贝叶斯误差估计方法,可用于评估分类器和检测测试集过拟合。我们的方法灵活且无模型和实例需求,甚至适用于弱监督数据。实验结果表明,最近提出的深度网络,如 Vision Transformer 等,已经或即将达到基准数据集的贝叶斯误差。最后,我们还讨论了如何通过估计 ICLR 论文的贝叶斯误差来研究科学文章的接受 / 拒绝决策的困难程度。
Feb, 2022
现有的监督学习泛化理论通常采用整体方法,并提供整个数据分布的期望泛化界限,这暗示了模型对所有类别的泛化情况相似。然而,在实践中,不同类别之间的泛化性能存在显著差异,这不能被现有的泛化界限所捕捉。本文通过在理论上研究类别泛化误差来解决这个问题,该误差量化了每个个体类别的泛化性能。我们使用 KL 散度推导出了一种新的信息论界限来度量类别泛化误差,并进一步利用条件互信息 (CMI) 获得了几个更紧的界限,这在实践中更容易估计。我们在不同的神经网络中经验证实了我们提出的界限能准确捕捉复杂的类别泛化误差行为。此外,我们还展示了本文所开发的理论工具能够应用在其他多个领域。
Jan, 2024
通过元学习方法在转导式环境中学习多个任务,通过使用未标记的查询集合生成更强大的模型来解决多任务学习中的问题,并提出了一种合成梯度网络和初始化网络组成的新型变分推理方法,优于以前的方法,并进一步探索了合成梯度的潜力。
Apr, 2020
本文提出了一个学习如何对最佳分类器的表现进行基准测试的框架,实现了对贝叶斯误分类误差率的准确评估,基于一个包含估计器的集成学习器和切比雪夫逼近进行基准学习,通过实验验证,相较之前的方法精确的评估了贝叶斯误差率。
Sep, 2019
该研究提出了一种基于两步半监督模型的多类分类器的 Rademacher 复杂性界,通过聚类技术和较少的带标签数据来训练分类器,并得到包含泛化误差界的数据相关收敛速度的理论结果。
Jul, 2016
本文研究了信息分裂函数在统计学和信息理论中的作用,并提出了一种新的非参数 f 分裂测量方法,可以用于改进最小二分法分类错误的上限,并设计了特征选择算法以验证理论上的结果。
Dec, 2014