人工智能中的不确定性:对离群样本图像评估深度神经网络
本研究比较了单一神经网络、深度集合和三种高效神经网络集合的性能,结果表明批量集合是一种性价比高且与深度集合相比在不确定性和准确性方面表现更好的替代方案。
Mar, 2024
研究使用机器学习技术的安全关键系统需要可靠的不确定性评估。本研究发现,深度神经网络在处理分布外数据时可能会产生过度自信的预测。本研究提出了一种具有保护分布外数据和高准确度的分类器,并提供所有实验代码。
Jun, 2021
本研究旨在探索深度学习模型的不确定性量化方法,并考虑基于贝叶斯推理的模型在 OoD 检测中的表现,结果显示在某些情况下,这种模型略高于传统的深度神经网络,对于对新输入的敏感性的原因进行研究,并对对抗噪声鲁棒性的影响进行了研究。
Sep, 2020
深度神经网络在各种技术和服务中得到越来越广泛的应用,但其容易受到来自训练集不同分布的样本的干扰,而常见的解决方法是使深度神经网络具备检测这种样本的能力。本文提出了一种基于 ImageNet 和 Places365 的全面评估标准,根据与训练集的语义相似性,将个别类别分为内部分布和外部分布,通过不同的技术确定哪些类别应被视为内部分布,得到具备不同性质的评估标准。不同的 ODD 检测技术在不同的评估标准下的实验结果表明,它们的有效性取决于所选择的评估标准,而基于置信度的技术在接近 ODD 样本上可能优于基于分类器的技术。
Apr, 2024
探讨深度神经网络架构与训练机制与其相应的选择性预测和不确定性估计性能的关系,并在 484 个预训练的深度 Imagenet 分类器中进行了全面的选择性预测和不确定性估计性能研究,发现 ViT 架构在不确定性估计性能方面表现最优。
Jun, 2022
本文提出了一种用于评估图像分类器检测类别 - 分布外实例能力的新框架,并将该技术应用于 ImageNet 数据集,分析结果揭示了多个新观察,包括知识蒸馏能够一致提高分布外实例检测性能,ViTs 的子集比任何其他模型都能更好地检测出分布外实例等。
Feb, 2023
通过对比研究和深度分析来评估各种最先进的方法对基于置信度的 OOD 检测的能力,并采用计算机视觉基准来复现和比较多种 OOD 检测方法。评估了它们在使用胸部 X 线进行疾病分类这一具有挑战性任务中的能力,结果表明在计算机视觉任务中高性能不直接转化为医学成像任务中的准确性,因此为开发下一代 OOD 检测方法提供了有用的见解。
Jul, 2021
本文针对文本分类任务中的 OOD 检测问题,提出了基于证据不确定性的方法,该方法通过引入辅助的离群样本和伪样本来训练模型,并明确建模了类别概率的不确定性。实验证明,该方法能够轻松部署于传统 RNN 和 Fine-tuned 预训练 transformers,并在 OOD 检测上优于其他方法。
Jul, 2021
通过应用基于最可能的类条件高斯分布的 Mahalanobis 距离作为 OOD 分数来评估拒绝语义分割 DNN 的输出,该研究发现即使在未知数据集上应用,也可以显著降低分类风险,但会以像素覆盖率为代价。这些发现的适用性将有助于合法化安全措施并推动其在汽车感知中的安全使用的论证。
Jan, 2024