随机森林中的不确定性:演化不确定性和认知不确定性
本文讨论了在 “不确定性采样” 策略的背景下,确立和不可归约不确定性的区别,提出了 “确立不确定性采样” 的概念,并使用一种具体的方法来衡量确立不确定性和偶发不确定性。实验表明,确立不确定性采样效果良好。
Aug, 2019
本研究探讨了在计算机视觉任务中,使用贝叶斯深度学习模型对本质和表观不确定性进行建模的影响, 并提出了一种新的深度学习框架,将输入相关的本质不确定性与表观不确定性相结合。 我们还提出了一种新的损失函数,可解释为学习的衰减,将其应用于像素级语义分割和深度回归任务中,使得模型更加鲁棒并取得新的最先进的结果。
Mar, 2017
本文介绍了一种新的深度概率模型,叫作 “生成森林”,这种模型将随机森林扩展到了生成模型,可以表示整个特征空间上的联合分布,解决了判别模型缺乏处理预测不确定性方法的问题,并且可以测量每个预测的稳健性和检测分布外的样本。
Jul, 2020
提出了一个框架,通过学习的 Q 值来区分和估计强化学习中源于有限数据的认识不确定性和源于随机环境的 aleatoric 不确定性,并引入一种考虑不确定性的 DQN 算法,该算法表现出安全的学习行为,并在 MinAtar 测试中表现出优越性能。
May, 2019
该研究提出了一种新的数据不确定性估计方法,通过主动去噪处理观察数据,以更准确地近似实际数据不确定性。实验证明,与标准方法相比,我们提出的方法更接近实际数据不确定性。
Dec, 2023
提出了基于合适评分规则(proper scoring rules)的新的测量方法,用于量化机器学习中的系统不确定性和认知不确定性,建立了不同不确定性表示之间的联系,并引入了新的认知和系统不确定性度量。
Apr, 2024
研究神经网络的不确定性问题,提出了一种新的不确定性量化方法,能够区分 aleatoric 和 epistemic uncertainties,实验证明 Ensembles 可以提供整体性最好的解决方案,同时推荐采样 softmax 函数的超参数 N 大于 100。
Apr, 2022
可信的机器学习系统不仅应返回准确的预测结果,还应提供可靠的不确定性表示。贝叶斯方法通常用于量化生成论和认知性不确定性,但近年来,备选方法,如证据深度学习方法,已变得流行。这篇论文提出了证据深度学习的新理论洞见,强调了优化二阶损失函数和解释由此得出的认知性不确定度度量的困难。通过一个系统的实验设置,涵盖了分类,回归和计数的多种方法,对二阶损失最小化中的确认性和收敛性问题,以及认知不确定性度量的相对(而不是绝对)性质提供了新的见解。
Feb, 2024