该论文介绍了 Bayes by Hypernet,一种新的变分逼近方法,通过将超网络视为隐式分布来解决现代神经网络在未见过的、嘈杂的或标记错误的数据上过于自信,并且不能产生有意义的不确定性度量的短板,本文在 MNIST 和 CIFAR5 任务中表现优异且最具鲁棒性,同时满足复杂度、可扩展性和准确度的要求。
Nov, 2017
本文提出了一种基于先验学习的新方法,用于提高深度神经网络的泛化和不确定性估计,该方法利用可伸缩和结构化的神经网络后验作为具有泛化保证的信息先验。我们的学习先验在大规模上提供了具有表现力的概率表征,可以看作是在 ImageNet 上预训练模型的贝叶斯对应物,并进一步产生非平凡的泛化界限。我们还将这个想法扩展到了一个连续学习的框架中,其中我们的先验的有利特性是可取的。我们的技术贡献是(1)Kronecker 积分和求和计算,以及(2)导出和优化可追踪的目标,从而导致改进的泛化边界。从实证上来说,我们详尽地展示了这种方法用于不确定性估计和泛化的有效性。
Jul, 2023
该论文介绍了一种基于贝叶斯原理的神经网络反演方法,利用对先验分布采样的数据正则化参数,从而提高神经网络模型的预测不确定性识别和量化能力。经过理论和实证分析,该方法相对于传统的平均集成技术具有更好的性能表现。
Oct, 2018
本文研究深度学习模型的不确定性估计问题,基于神经网络高斯过程构建了一个概率模型,能够更好地校准模型并比较有限和无限宽模型的表现差异,同时也考虑了分类问题和迁移学习等实际应用场景。
Oct, 2020
在这篇论文中,我们提出了一个基于函数空间变分推断的可扩展函数空间变分推断方法,该方法明确地将贝叶斯推断应用于神经网络,并允许结合先验信息以产生可靠的预测不确定性评估。我们展示了该方法在一系列预测任务上的最新不确定性估计和预测性能,并证明其在安全关键的医学诊断任务中表现出色。
Dec, 2023
本研究通过对 10 种常见的推断方法在回归和分类任务中的预测不确定性估计结果进行实证比较,发现常用的指标可能会导致误导,并表明为了得到高质量的后验逼近并不一定需要具有捕获后验结构的推断创新。
Jun, 2019
本文提出了一种将先验知识通过外部摘要信息纳入贝叶斯神经网络中的简单方法,通过引入 Dirichlet 过程并推导相应的总结证据下限,将可用的摘要信息作为增广数据建模。使用本方法可以增强模型对分类任务难度和类别分布的了解,并在准确性、不确定性校准和对数据损坏的鲁棒性等方面表现良好。
Jul, 2022
本研究旨在利用模型不确定性作为 BNN 结构学习的框架,提出了可与模型空间约束结合的可扩展变分推理方法,试图在模型和参数的联合空间中进行推理,进而实现结构和参数不确定性的组合,并在基准数据集上进行了实验,表明使方法比普通 Bayesian neural networks 更加稀疏,但得到了与竞争模型相当的精度结果。
May, 2023
本研究提出两种创新方法以将变分贝叶斯转化为贝叶斯神经网络的稳健推理工具:一种新的确定性方法用于逼近神经网络的矩,消除了梯度方差;一种参数的分层先验和自动选择先验方差的新的经验贝叶斯程序。将这两种方法结合起来,所得到的方法高效而稳健,在异方差回归应用中表现出了很好的预测性能。
本研究提出了一种统一的概率架构与权重集成神经架构搜索方法,利用概率神经架构搜索和近似贝叶斯推理的进展,从神经网络架构和权重的联合分布生成集成模型,取得了较大的进步。
Oct, 2022