关于贝叶斯分类中的不确定性、调和和数据增强
本文探讨了后验温度的调整在贝叶斯神经网络中的作用以及先验的影响,研究发现,在高质量的分类数据集如 MNIST 或 CIFAR 中,经常使用的先验能够显著地高估标签的不确定性。研究在高斯过程回归中发现,任何正数的温度都对应于一个经过修改的先验下的有效后验,而调整后验温度直接类比于经验贝叶斯。当应用于分类任务时,调整先验并不直接等同于调整后验温度,但是降低后验温度可以得到更好地反映新增训练样本信息的模型。因此,虽然冷后验并不总是对应于精确的推理过程,但我们认为,它们可能更好地反映了我们真实的先验信念。
Jul, 2020
该研究提出了一种新的数据不确定性估计方法,通过主动去噪处理观察数据,以更准确地近似实际数据不确定性。实验证明,与标准方法相比,我们提出的方法更接近实际数据不确定性。
Dec, 2023
本文提出了一种简单的 Monte Carlo Dropout 算法,可以显式地量化神经网络输出的不确定性,利用此种不确定性可以解释模型复杂现象、如情感识别,此外也可以用于辨别主观标记样本和数据偏差的问题。
Sep, 2019
本研究探讨了在计算机视觉任务中,使用贝叶斯深度学习模型对本质和表观不确定性进行建模的影响, 并提出了一种新的深度学习框架,将输入相关的本质不确定性与表观不确定性相结合。 我们还提出了一种新的损失函数,可解释为学习的衰减,将其应用于像素级语义分割和深度回归任务中,使得模型更加鲁棒并取得新的最先进的结果。
Mar, 2017
本研究分析了基于深度卷积神经网络的 2D 和 3D 医学图像分割任务的不同不确定性,提出了一种基于测试时间增强的随机不确定性方法,用于分析输入图像的不同变换对分割输出的影响,并与模型不确定性相结合,对胎儿脑和脑肿瘤进行了医学图像分割实验,讨论了测试时间增强方法的优势。
Jul, 2018
该研究通过在神经网络的语音信号增强过程中,将 aleatoric 和 epistemic 不确定性模型化,提出了一种模型不确定性建模的框架,并在不同数据集上验证了该方法的有效性。
May, 2023
图像分类中使用的基准数据集往往具有非常低的标签噪声。当贝叶斯神经网络在这些数据集上进行训练时,它们往往会欠拟合,错误地表示数据的不确定性。一种常见的解决方法是通过冷却后验,这提高了对训练数据的拟合,但从贝叶斯的角度来解释具有挑战性。我们探讨了是否可以通过具有信心诱导的先验分布来替代后验调温。首先,我们介绍了一种实际可采样且几乎与冷后验性能相匹配的 “DirClip” 先验。其次,我们介绍了一种直接在温度趋近于零时近似冷似然函数但难以采样的 “信心先验”。最后,我们提供了关于信心诱导先验的几个一般性见解,例如它们何时可能发散以及如何通过微调来减轻数值不稳定性。
Mar, 2024
本篇研究提出了一种神经网络模型,该模型能够同时表达 aleatoric 和 epistemic 不确定性,区分特征空间的决策边界和 “out-of-distribution” 区域。在训练过程中,通过集成变分自编码器和生成对抗网络的方法生成了 “out-of-distribution” 样本。通过在多个数据集上进行实验,表明该方法提供了更好的不确定性估计,并且在识别对抗样本时表现出优异的表现。
Jun, 2020
深度学习方法在建模机器人估计系统中的不确定性上表现出了巨大潜力,特别是当不确定性分布不符合传统的固定和高斯假设时。本研究通过三种基本的深度学习方法(参数化模型、离散化模型和生成模型)对非高斯型不确定性进行了数值建模和评估,并在模拟非高斯密度和现实世界的地形相对导航数据上系统比较了这三种方法的优缺点。结果表明,这些深度学习方法能够准确捕捉复杂的不确定性模式,彰显了它们提高估计系统可靠性和鲁棒性的潜力。
May, 2024