DEUP:直接预测认知不确定性
Diffusion Ensembles for Capturing Uncertainty (DECU) is an innovative framework designed to estimate epistemic uncertainty in generative diffusion models by efficiently training ensembles of conditional diffusion models with a static set of pre-trained parameters and employing Pairwise-Distance Estimators (PaiDEs) to accurately measure epistemic uncertainty in high-dimensional spaces.
Jun, 2024
本研究探讨了在计算机视觉任务中,使用贝叶斯深度学习模型对本质和表观不确定性进行建模的影响, 并提出了一种新的深度学习框架,将输入相关的本质不确定性与表观不确定性相结合。 我们还提出了一种新的损失函数,可解释为学习的衰减,将其应用于像素级语义分割和深度回归任务中,使得模型更加鲁棒并取得新的最先进的结果。
Mar, 2017
利用对抗模型量化不确定性提高估计认知不确定性的准确性,相较于现有方法,Quantification of Uncertainty with Adversarial Models 能够更好地捕捉深度学习模型中的认知不确定性。
Jul, 2023
我们的研究旨在为任何预训练模型量化认识上的不确定性,不需要原始训练数据或模型修改,可以确保广泛适用于任何网络架构或训练技术;我们提出了一种基于梯度的方法来评估认识上的不确定性,通过分析输出相对于模型参数的梯度,从而指示必要的模型调整以准确地表示输入。
Apr, 2024
该论文提出了一种深度学习可扩展的确定性和不确定性评估框架,并对两种最先进的可扩展方法进行了比较,即集成和 MC-dropout,结果表明集成方法提供更可靠和实用的不确定性估计。
Jun, 2019
本文讨论了在 “不确定性采样” 策略的背景下,确立和不可归约不确定性的区别,提出了 “确立不确定性采样” 的概念,并使用一种具体的方法来衡量确立不确定性和偶发不确定性。实验表明,确立不确定性采样效果良好。
Aug, 2019
该研究表明,在医学领域中,机器学习模型可以通过训练对数据实例输出不确定性得分,以便针对存在高度医学专家分歧的情况,特别是可以确定应该获得医学二次意见的病例,和通过直接预测不确定性得分的方法(DUP),可以更好地进行训练,优于通过分类来预测不确定性分数的方法。这一结论得到了理论结果和在大规模医学影像应用中广泛评估的支持。
Jul, 2018
本文提出了一种简单的 Monte Carlo Dropout 算法,可以显式地量化神经网络输出的不确定性,利用此种不确定性可以解释模型复杂现象、如情感识别,此外也可以用于辨别主观标记样本和数据偏差的问题。
Sep, 2019
可靠和实用的地球系统科学建模领域中,证据深度学习是一种有前途的方法,它能够准确量化预测不确定性,包括预测方差和模型不确定性,还可以通过敏感性分析来解释模型的预测结果。
Sep, 2023
该论文通过混合狄利克雷分布的变分推断来建模一致的目标分布,并通过学习得到的元分布模型提取目标模型中的学到的不确定性。实验证明我们提出的方法在各种基于不确定性的后续任务中具有优越性,并展示了学到的认知不确定性的一致性和不一致性带来的实际影响。
Feb, 2024