评估可扩展的贝叶斯深度学习方法在稳健计算机视觉中的应用
本研究探讨了在计算机视觉任务中, 使用贝叶斯深度学习模型对本质和表观不确定性进行建模的影响, 并提出了一种新的深度学习框架,将输入相关的本质不确定性与表观不确定性相结合。 我们还提出了一种新的损失函数,可解释为学习的衰减,将其应用于像素级语义分割和深度回归任务中,使得模型更加鲁棒并取得新的最先进的结果。
Mar, 2017
本文提出了一种使用卷积神经网络实现的关于具有随机偏微分方程的不确定性建模的代理模型,该方法使用变分梯度下降算法对参数进行“近似贝叶斯推断”,可以在处理不确定性时实现和其他方法相比具有最先进的预测精度和不确定性量化,即使训练数据量相对较小,也能获得非常好的性能。
Jan, 2018
本研究提出了三种度量标准以评估贝叶斯深度学习模型在语义分割任务中的不确定性估计。通过修改 DeepLab-v3+ 模型并使用 MC dropout 和 Concrete dropout 作为推断技术,本研究在 Cityscapes 数据集上比较和测试这两种推断技术的性能。结果可作为研究者对改进不确定性量化的参考。
Nov, 2018
通过对神经网络的深度进行概率推理,我们能够只需一次前向传播,就能估计模型的不确定性。在真实的回归和图像分类任务中,我们验证了这一方法的效果,并证明它能提供不确定度校准、对数据集变化的鲁棒性和与计算成本更高的基线准确度相当的预测结果。
Jun, 2020
本研究评估了三种不确定性量化方法,即深度集成,MC-Dropout和MC-DropConnect在DarkNet21Seg 3D语义分割模型上的影响,并全面分析了各种参数对任务性能和不确定性估计质量的影响。研究发现,深度集成的表现在性能和不确定性度量方面优于其他方法,mIOU提高了2.4%,准确度提高了1.3%,并提供可靠的不确定性来做出决策。
Jul, 2020
本文通过对文献的元分析,发现大多数计算机视觉应用都没有使用恰当的认识不确定性量化方法,从而忽略了模型自身的局限性。我们描述了使用没有适当的不确定性量化的模型所产生的后果,并激励社区采用具有适当校准的认知不确定度的模型版本,以实现让模型具有识别未知数据集的能力。在本文中,我们还总结了计算机视觉应用程序中不确定性估计的挑战和建议。
Apr, 2021
本文提出了一组新的方法,可以通过单次前向传递来估计深度神经网络中的认识不确定性,这些确定性不确定性方法在表示信息的前提下,在检测超出分布数据(OOD)方面表现出强大的性能,同时几乎不增加推理时间的计算成本。然而,DUMs是否校准良好且是否可以无缝地扩展到实际应用仍不清楚。本文对DUM进行分类和评估,发现当前方法的实用性受到分布移位校准的限制。
Jul, 2021
该研究提出了一种可扩展的、有效的决策不确定性方法,通过利用区别最大化层,通过任意大小的可训练原型学习鉴别隐藏空间,以解决深度学习在实际中应用时不确定性预测的问题,该方法在图像分类、分割和单眼深度估计任务上超过了深度集合的现有技术。
Jul, 2022
这篇论文介绍了一种用于预测不确定性量化的基准测试方法,通过评估不同方法在三个流行数据集上对于识别被错分和不适当类别像素、以及校准的有效性,发现证据深度学习方法在高效量化不确定性方面表现最有潜力,提出了适用于高度不平衡数据的Uncertainty-Focal-Cross-Entropy (UFCE)损失函数,以及增强模型对高不确定性像素关注的缺空缩放规则项能够提高确定性不确定性量化。
May, 2024