用适当评分规则量化随机和知识不确定性
区分预测不确定性的来源对于在各个领域中应用预测模型至关重要。本研究提出了一个基于统计推理的通用框架,不仅可以创建新的不确定性度量,还可以澄清它们之间的关系。我们的方法利用统计风险区分了随机不确定性和认知不确定性,并利用适当的得分规则进行量化。为了使其在实践中可行,我们提出了将贝叶斯推理纳入该框架的思路,并讨论了该近似方法的性质。
Feb, 2024
本文提出了一种简单的 Monte Carlo Dropout 算法,可以显式地量化神经网络输出的不确定性,利用此种不确定性可以解释模型复杂现象、如情感识别,此外也可以用于辨别主观标记样本和数据偏差的问题。
Sep, 2019
这篇论文介绍了机器学习中不确定性的概念及其研究应用。研究者通过随机森林及决策树来量化学习器的混淆不确定性及知识不确定性,并将其与深度神经网络进行了比较。
Jan, 2020
本文讨论了在 “不确定性采样” 策略的背景下,确立和不可归约不确定性的区别,提出了 “确立不确定性采样” 的概念,并使用一种具体的方法来衡量确立不确定性和偶发不确定性。实验表明,确立不确定性采样效果良好。
Aug, 2019
提出了一种方法,可以一致且渐近无偏地估计所有适当的校准误差和改进术语,并验证了所提估计器的所述特性,并建议后续校准方法的选择应由所关注的特定校准误差决定。
Dec, 2023
提出了一个框架,通过学习的 Q 值来区分和估计强化学习中源于有限数据的认识不确定性和源于随机环境的 aleatoric 不确定性,并引入一种考虑不确定性的 DQN 算法,该算法表现出安全的学习行为,并在 MinAtar 测试中表现出优越性能。
May, 2019
研究神经网络的不确定性问题,提出了一种新的不确定性量化方法,能够区分 aleatoric 和 epistemic uncertainties,实验证明 Ensembles 可以提供整体性最好的解决方案,同时推荐采样 softmax 函数的超参数 N 大于 100。
Apr, 2022
本文提出了一种基于深度神经网络单模型的 aleatoric 和 epistemic 不确定性估计方法,分别为 Simultaneous Quantile Regression(SQR)和 Orthonormal Certificates(OCs),这些方法无需集成或重新训练深层模型就能达到竞争性能。
Nov, 2018