机器学习中的随机不确定性和认知不确定性:概念和方法介绍
这篇论文介绍了机器学习中不确定性的概念及其研究应用。研究者通过随机森林及决策树来量化学习器的混淆不确定性及知识不确定性,并将其与深度神经网络进行了比较。
Jan, 2020
本文讨论了在 “不确定性采样” 策略的背景下,确立和不可归约不确定性的区别,提出了 “确立不确定性采样” 的概念,并使用一种具体的方法来衡量确立不确定性和偶发不确定性。实验表明,确立不确定性采样效果良好。
Aug, 2019
本研究探讨了在计算机视觉任务中,使用贝叶斯深度学习模型对本质和表观不确定性进行建模的影响, 并提出了一种新的深度学习框架,将输入相关的本质不确定性与表观不确定性相结合。 我们还提出了一种新的损失函数,可解释为学习的衰减,将其应用于像素级语义分割和深度回归任务中,使得模型更加鲁棒并取得新的最先进的结果。
Mar, 2017
该研究综述了机器学习中不确定性的来源、分类和度量方法,并讨论了不确定性对决策过程的影响。重点关注深度学习领域,提供了广泛范围的不确定性讨论和深度学习中的不确定性量化方法的最新综述。
Jun, 2024
提出了基于合适评分规则(proper scoring rules)的新的测量方法,用于量化机器学习中的系统不确定性和认知不确定性,建立了不同不确定性表示之间的联系,并引入了新的认知和系统不确定性度量。
Apr, 2024
本文提出了一种简单的 Monte Carlo Dropout 算法,可以显式地量化神经网络输出的不确定性,利用此种不确定性可以解释模型复杂现象、如情感识别,此外也可以用于辨别主观标记样本和数据偏差的问题。
Sep, 2019
可信的机器学习系统不仅应返回准确的预测结果,还应提供可靠的不确定性表示。贝叶斯方法通常用于量化生成论和认知性不确定性,但近年来,备选方法,如证据深度学习方法,已变得流行。这篇论文提出了证据深度学习的新理论洞见,强调了优化二阶损失函数和解释由此得出的认知性不确定度度量的困难。通过一个系统的实验设置,涵盖了分类,回归和计数的多种方法,对二阶损失最小化中的确认性和收敛性问题,以及认知不确定性度量的相对(而不是绝对)性质提供了新的见解。
Feb, 2024
本文研究基于统计学习理论的机器学习方法中的不确定性问题,并深入探讨了在回归分析中评估模型系数和输出特征值预测中的不确定度。另外,针对机器学习中的模型复杂度和严重非线性等问题提出解决方案,并指出决策制定时需要对机器学习模型和预测进行不确定性评估、风险评估的需求,并提供使用非参数技术解决不确定性问题的方法及最新的超级计算机设备供进行高强度计算。
Jun, 2022
研究神经网络的不确定性问题,提出了一种新的不确定性量化方法,能够区分 aleatoric 和 epistemic uncertainties,实验证明 Ensembles 可以提供整体性最好的解决方案,同时推荐采样 softmax 函数的超参数 N 大于 100。
Apr, 2022