模型平均中的元学习 PAC-Bayes 先验
提出了基于一般化误差界的元学习框架,通过构建学习任务的假设分布,并在新任务上使用以经验为依据的先验知识进行学习,我们可以在捕捉学习任务公共结构的同时保证学习者灵活地适应新任务的不同方面,通过深度神经网络的数值实验来证明元学习的基于梯度的算法的有效性,并演示了在网络不同层次上体现先验信息的直观方式。
Nov, 2017
本文提出了一种层次经验贝叶斯方法,以解决实际问题中面临的挑战,即缺乏信息先验和无法控制参数学习速率的问题。该方法从数据本身学习经验元先验,并将它们用于解耦 GLM 中的一阶和二阶特征的学习速率。作者将其应用于标准监督学习优化问题以及在线组合优化问题中,在实验中表现出了显著的改进。
Feb, 2020
提出了一种基于贝叶斯元模型的方法,该方法用于增强预训练模型的不确定性量化能力,以实现不同应用场景下的预测性能,例如图像分类中的领域外数据检测、错分检测和可信迁移学习,无需额外的训练数据,从而在多个代表性图像分类基准测试上展示了更好的表现。
Dec, 2022
该论文提出了一种概率元学习算法,能够从模型分布中采样模型,并且在模型适应新任务时注入噪声来减少任务模糊性,实验结果表明,该方法可以在模糊的少样本学习问题中采样出可信的分类器和回归器,并且阐述了如何利用对模糊性的推理来解决活跃学习问题。
Jun, 2018
我们介绍了一个新的框架,使用 PAC-Bayesian 理论来研究元学习方法。该框架相比以往的工作的主要优势在于它允许在任务之间的知识转移方面更加灵活。我们的框架的灵活性使其适用于分析广泛范围的元学习机制,甚至设计新的机制。除了理论贡献外,我们还通过经验证明我们的框架提高了实际元学习机制的预测质量。
Feb, 2024
本文提出一种新的贝叶斯模型无关元学习方法,结合可伸缩的基于梯度的元学习和非参数变分推断,通过一个有原则的概率框架去学习复杂的不确定性结构,并且在 meta-update 时使用鲁棒的贝叶斯 meta-update 机制防止过拟合。此方法在各种任务中展现了准确性和鲁棒性。
Jun, 2018
本文提出了一种新的、严谨的贝叶斯元学习算法,用于学习少样本学习的模型参数先验的概率分布。该算法采用基于梯度的变分推断来推断模型参数的后验分布。我们展示了使用我们提出的元学习算法训练的模型具有良好的校准和准确性,在两个少样本分类基准测试(Omniglot 和 Mini-ImageNet)上取得了最新的校准和分类结果,并在多模式任务分布回归中获得了有竞争力的结果。
Jul, 2019
贝叶斯神经网络通过学习模型参数的后验分布来解决认知不确定性问题。使用该后验进行抽样和加权网络,从而形成一个被称为贝叶斯集合的集合模型。相对于个别网络,深度集合可以受益于误差抵消效应,提高预测性能。本文论证了贝叶斯集合的抽样和加权方法并不适合增加泛化性能,因为它们无法实现误差抵消效应。相反,通过优化 PAC-Bayesian 泛化约束得到模型的加权平均值可以提高泛化性能。这种加权方法需要考虑模型之间的相关性,可以通过最小化串级损失来实现。PAC-Bayesian 加权方法增强了对相关模型和性能较低模型的稳健性,因此我们可以安全地添加来自同一学习过程的多个模型到集合中,而不是使用早停法选择单一的权重配置。本研究在四个不同的分类数据集上给出了实证结果,表明尽管计算代价较高,但来自文献中的最先进的贝叶斯集合并没有改进普通权重的深度集合,并且无法与通过优化串级损失的深度集合相匹配,后者还具有非空泛化保证。
Jun, 2024
我们提出了一种基于预测分布的 Stacking 方法,利用 Pareto-smooth 重要性采样计算所需的单次观察后验分布和正则化以获得更好的稳定性,比较结果表明我们的方法在计算成本可接受的情况下优于其它方法。
Apr, 2017
针对机器学习模型影响采纳的关键因素之一 —— 信任,本研究提出了一组特征量,可以表征一个实例的复杂程度,并借助元学习框架评估误分类的风险。该框架在提高模型开发的复杂性方面具有潜在的应用前景,同时提供新的模型自我阻抗和解释手段。
Apr, 2023