神经网络的不确定性:近似贝叶斯集成
本研究提出了一种替代贝叶斯 NN 的简单实现方法,其能够产生高质量的预测不确定性估计,并在分类和回归数据集上进行了实验以证明这一点。此外,研究还评估了在已知和未知数据分布下的预测不确定性,并证明该方法能够在超出分布的样本上表现出更高的不确定性,同时在 ImageNet 上证明了该方法的可扩展性。
Dec, 2016
本研究旨在利用模型不确定性作为 BNN 结构学习的框架,提出了可与模型空间约束结合的可扩展变分推理方法,试图在模型和参数的联合空间中进行推理,进而实现结构和参数不确定性的组合,并在基准数据集上进行了实验,表明使方法比普通 Bayesian neural networks 更加稀疏,但得到了与竞争模型相当的精度结果。
May, 2023
深度集成是一种用于深度学习中不确定性量化的最新技术,本研究通过指定相关假设,证明了其可视为近似贝叶斯方法,该发现有助于改进估计并增大认识不确定性,数值实验表明这种改进有助于提高鲁棒性,同时可以通过分析导出方便计算的结果。
May, 2021
通过选择性地通过梯度敏感性分析评估确定性显著性,本研究引入了对稀疏(部分)贝叶斯网络的训练过程。通过将确定性参数与贝叶斯参数相结合,充分利用两种表示的优点,实现了高效的特定任务性能和最小化的预测不确定性。在多标签 ChestMNIST 分类和 ISIC、LIDC-IDRI 分割任务上表现出了有竞争力的性能和预测不确定性估计,相比完全贝叶斯化和集合方法,能够显著减少 95% 以上贝叶斯参数,从而大大降低计算开销。
Jun, 2024
提出了一种用基于贝叶斯信任网络和蒙特卡罗采样的方法来对神经网络进行不确定性估计,这个方法具有与神经网络结构和任务无关,不需要优化进程的更改,能够应用于已经训练好的结构,有效地提高了准确性。
Jul, 2019
贝叶斯神经网络通过学习模型参数的后验分布来解决认知不确定性问题。使用该后验进行抽样和加权网络,从而形成一个被称为贝叶斯集合的集合模型。相对于个别网络,深度集合可以受益于误差抵消效应,提高预测性能。本文论证了贝叶斯集合的抽样和加权方法并不适合增加泛化性能,因为它们无法实现误差抵消效应。相反,通过优化 PAC-Bayesian 泛化约束得到模型的加权平均值可以提高泛化性能。这种加权方法需要考虑模型之间的相关性,可以通过最小化串级损失来实现。PAC-Bayesian 加权方法增强了对相关模型和性能较低模型的稳健性,因此我们可以安全地添加来自同一学习过程的多个模型到集合中,而不是使用早停法选择单一的权重配置。本研究在四个不同的分类数据集上给出了实证结果,表明尽管计算代价较高,但来自文献中的最先进的贝叶斯集合并没有改进普通权重的深度集合,并且无法与通过优化串级损失的深度集合相匹配,后者还具有非空泛化保证。
Jun, 2024
本研究提出一种基于感知器的设计方案,该方案结合了贝叶斯神经网络和深度集成等现代方法,通过在每层的权重矩阵中加入少量的诱导权重来降低存储和计算成本,同时保持较好的预测精度和不确定性估计能力。
May, 2021
本研究介绍了一种 Bayesian 非参数集成学习方法,利用不同噪声和错误源的 Bayesian 非参数机制,对现有集成学习模型进行改进,以充分量化模型的不确定性,并将整体预测不确定性分解为不同的部分,实现了在噪声和错误较多的情况下,对空气污染暴露的预测及模型的偏差检测。
Nov, 2019
本研究提出了一种统一的概率架构与权重集成神经架构搜索方法,利用概率神经架构搜索和近似贝叶斯推理的进展,从神经网络架构和权重的联合分布生成集成模型,取得了较大的进步。
Oct, 2022