通过研究两种常见的变分方法,该文证明了在低不确定性区域之间不存在过多信息增加的情况,并提供了深度神经网络中的柔性不确定性估计的近似贝叶斯后验分布,但发现了类似于单隐层 ReLU 情况的病理现象。
Sep, 2019
本文研究比较了在一个物理系统的背景下,深度学习算法的不确定性量化方法,包括贝叶斯神经网络,Concrete Dropout和Deep Ensembles,并探讨了它们的优缺点,结果为使用和解释不确定性量化方法提出了一些建议。
Apr, 2020
本文介绍了一个包含不确定性建模、解法和评估的完整框架,用于量化神经网络中包括噪声、有限数据、超参数、过度参数化、优化和采样误差及模型错误等多源的误差和不确定性,特别关注向无限维函数空间中的偏微分方程和操作映射的学习,包括一个在原型问题上进行的广泛的比较研究。
Jan, 2022
研究神经网络的不确定性问题,提出了一种新的不确定性量化方法,能够区分aleatoric和epistemic uncertainties,实验证明Ensembles可以提供整体性最好的解决方案,同时推荐采样softmax函数的超参数N大于100。
Apr, 2022
本文旨在改进处理不确定贝叶斯网络的现有方法,通过使该方法能够学习其参数的分布,即条件概率,并基于各种查询的强度和经验确定置信度限制,从而在不完整的数据情况下学习参数的后验分布。
Aug, 2022
本研究提出了一种基于贝叶斯神经网络和哈密顿蒙特卡罗的新型深度学习方法,用于量化随机偏微分方程中的不确定性。通过多个数值实例,证明了该方法对于高维度前向和反向问题的不确定性量化是有效的。同时发现该方法的计算成本几乎不受问题维度的影响,具有处理所谓的维数灾难的潜力。
Oct, 2022
生成后验网络(GPN)是一种新方法,利用未标记的数据来估计高维问题中的认识不确定性。它是一种生成模型,通过对网络进行正则化以从先验中采样,直接逼近后验分布。理论上证明我们的方法确实逼近了贝叶斯后验,并且实验证明它在比较方法上改进了认识不确定性估计和可扩展性。
Dec, 2023
基于局部线性化的方法来通过神经网络传播稳定的概率分布,以量化其输出的不确定性。
Feb, 2024
我们的研究旨在为任何预训练模型量化认识上的不确定性,不需要原始训练数据或模型修改,可以确保广泛适用于任何网络架构或训练技术;我们提出了一种基于梯度的方法来评估认识上的不确定性,通过分析输出相对于模型参数的梯度,从而指示必要的模型调整以准确地表示输入。
Apr, 2024
本研究解决了Kolmogorov-Arnold网络中的不确定性量化问题,特别是针对高阶ReLU KAN,旨在提高贝叶斯方法的计算效率。提出的方法具有一般性,能够同时获取认识性和随机性不确定性,并可推广到其他基函数。通过一系列闭合测试验证了我们的方法,包括对一维函数和随机偏微分方程的应用,展示了其在识别功能依赖关系方面的能力。
Oct, 2024