我们提出了一种基于几何的方法来估计不确定性,它可通过后处理模型校准来实现,避免了重新训练和更改模型,经多个数据集和模型的详细评估显示出更好的不确定性估计,并且可在接近实时应用中使用。
Jun, 2022
本文提出了一种简单的 Monte Carlo Dropout 算法,可以显式地量化神经网络输出的不确定性,利用此种不确定性可以解释模型复杂现象、如情感识别,此外也可以用于辨别主观标记样本和数据偏差的问题。
Sep, 2019
该研究提出了一种名为 Prior Networks(PNs)的框架来模型化分类任务中的数据和分布不确定性,并在 MNIST 数据集上实现了对 OOD 样本的识别和误分类的检测,与之前的方法相比,PNs 具有更好的表现。
Feb, 2018
对于集成预测不确定性以提高深度学习患者安全性的图像分类器,我们评估了两种不同的方法。我们发现,这些方法使用光学相干断层扫描的数据集训练,能够得出更可靠的结果,有望提高患者安全性。
Aug, 2019
本研究提出了新的互补方法来估计回归神经网络中的预测方差网络,经验证明此方法大幅改善了预测不确定性的估计。
Jun, 2019
提供了一种比使用蒙特卡洛采样估计神经网络的认识不确定性的方法更加高效的近似方法,该方法适用于大规模视觉任务。
提出了一种基于贝叶斯元模型的方法,该方法用于增强预训练模型的不确定性量化能力,以实现不同应用场景下的预测性能,例如图像分类中的领域外数据检测、错分检测和可信迁移学习,无需额外的训练数据,从而在多个代表性图像分类基准测试上展示了更好的表现。
Dec, 2022
提出了一种用基于贝叶斯信任网络和蒙特卡罗采样的方法来对神经网络进行不确定性估计,这个方法具有与神经网络结构和任务无关,不需要优化进程的更改,能够应用于已经训练好的结构,有效地提高了准确性。
Jul, 2019
以大量分类问题为基础,对现有现代机器学习方法中不同的贝叶斯和非贝叶斯概率量化预测不确定性的方法进行了评估,发现一些基于模型边缘化的方法在广泛的任务领域内表现出令人惊讶的强大效果。
本文提出了一种基于生成模型的贝叶斯逆问题方法,特别针对图像重建中的噪声和不完整图像,并解决了贝叶斯重建中遇到的常见问题:使用包含所有可用信息的复杂数据驱动先验,并在潜在空间和数据空间中进行可计算的不确定性量化。
Oct, 2019