统一的概率神经架构和权重组合提高模型鲁棒性
本研究提出一种基于感知器的设计方案,该方案结合了贝叶斯神经网络和深度集成等现代方法,通过在每层的权重矩阵中加入少量的诱导权重来降低存储和计算成本,同时保持较好的预测精度和不确定性估计能力。
May, 2021
本研究提出了一种替代贝叶斯 NN 的简单实现方法,其能够产生高质量的预测不确定性估计,并在分类和回归数据集上进行了实验以证明这一点。此外,研究还评估了在已知和未知数据分布下的预测不确定性,并证明该方法能够在超出分布的样本上表现出更高的不确定性,同时在 ImageNet 上证明了该方法的可扩展性。
Dec, 2016
本研究比较了多种机器学习技术的 UQ 准确性,并对两个模型(船只在波浪中的运动和 Majda-McLaughlin-Tabak 模型)进行了应用。
Jun, 2023
该论文介绍了一种基于贝叶斯原理的神经网络反演方法,利用对先验分布采样的数据正则化参数,从而提高神经网络模型的预测不确定性识别和量化能力。经过理论和实证分析,该方法相对于传统的平均集成技术具有更好的性能表现。
Oct, 2018
贝叶斯神经网络通过学习模型参数的后验分布来解决认知不确定性问题。使用该后验进行抽样和加权网络,从而形成一个被称为贝叶斯集合的集合模型。相对于个别网络,深度集合可以受益于误差抵消效应,提高预测性能。本文论证了贝叶斯集合的抽样和加权方法并不适合增加泛化性能,因为它们无法实现误差抵消效应。相反,通过优化 PAC-Bayesian 泛化约束得到模型的加权平均值可以提高泛化性能。这种加权方法需要考虑模型之间的相关性,可以通过最小化串级损失来实现。PAC-Bayesian 加权方法增强了对相关模型和性能较低模型的稳健性,因此我们可以安全地添加来自同一学习过程的多个模型到集合中,而不是使用早停法选择单一的权重配置。本研究在四个不同的分类数据集上给出了实证结果,表明尽管计算代价较高,但来自文献中的最先进的贝叶斯集合并没有改进普通权重的深度集合,并且无法与通过优化串级损失的深度集合相匹配,后者还具有非空泛化保证。
Jun, 2024
本文提出两种构建神经网络集合的方法,使用不同的体系结构,以细化预测结果并利用架构变化作为集合的差异性的来源,并在多个分类任务和现代架构搜索空间方面表现优于深度集成。
Jun, 2020
AutoDEUQ 使用深度神经网络和超参数搜索自动生成神经网络集合,并使用方差法将预测方差分解为数据方差和模型方差,这种方法在许多回归基准测试中优于几种现有的不确定性量化方法。
Oct, 2021
通过设计对权重和超参数的模型集成来改进模型的性能,并提出了一种超参数深度集成和超批集成方法,能够在计算和存储成本方面比传统的集成方法更加高效,应用于 MLP、Lenet、ResNet 20 和 Wide ResNet 28-10 网络结构,达到了超越深度集成和批量集成的最佳性能表现。
Jun, 2020
提出了一种用基于贝叶斯信任网络和蒙特卡罗采样的方法来对神经网络进行不确定性估计,这个方法具有与神经网络结构和任务无关,不需要优化进程的更改,能够应用于已经训练好的结构,有效地提高了准确性。
Jul, 2019
本文提出一种新颖的网络架构搜索 (NAS) 方法,用于优化 Bayesian 神经网络(BNN)的精度和不确定性,同时减少推理延迟。与传统的 NAS 不同,该方法使用来自内部和外部分布的数据搜索模型的不确定性性能,从而可以在网络中搜索贝叶斯层的正确位置,并且相对于流行的 BNN 基线,使用的运行时仅为其一小部分,将推理运行时成本分别与 MCDropout 和 deep ensemble 相比在 CIFAR10 数据集上分别降低了 2.98 倍和 2.92 倍。
Feb, 2022