通过任务感知的生成性不确定性实现对于超出分布输入的鲁棒性
本篇研究提出了一种神经网络模型,该模型能够同时表达 aleatoric 和 epistemic 不确定性,区分特征空间的决策边界和 “out-of-distribution” 区域。在训练过程中,通过集成变分自编码器和生成对抗网络的方法生成了 “out-of-distribution” 样本。通过在多个数据集上进行实验,表明该方法提供了更好的不确定性估计,并且在识别对抗样本时表现出优异的表现。
Jun, 2020
提出了一种用基于贝叶斯信任网络和蒙特卡罗采样的方法来对神经网络进行不确定性估计,这个方法具有与神经网络结构和任务无关,不需要优化进程的更改,能够应用于已经训练好的结构,有效地提高了准确性。
Jul, 2019
本文介绍了一种基于 GAN 的方法来构建鲁棒分类器,采用 GAN 显式生成分类器可以确信的、高熵的样本,并让分类器在这些样本上最大化熵,相对于现有最先进技术在手写字符和各种自然图像数据集上展示了该方法的有效性。
Dec, 2018
本研究旨在探索深度学习模型的不确定性量化方法,并考虑基于贝叶斯推理的模型在 OoD 检测中的表现,结果显示在某些情况下,这种模型略高于传统的深度神经网络,对于对新输入的敏感性的原因进行研究,并对对抗噪声鲁棒性的影响进行了研究。
Sep, 2020
本文探讨了基于预测不确定性的区分内外样本检测问题的解决方案,并通过极值理论的开放集识别方法对不同模型的本体不确定性进行了比较分析。同时通过实验,我们发现生成模型的后验 open set 识别方法优于区分模型和基于预测不确定性的异常检测方法,从而引出了分类器是否需要具备生成能力才能够识别未知类别的疑问。
Aug, 2019
通过提出一种简单易实现、产生直观可解释输出的神经网络置信度学习方法,我们成功地实现了对神经网络预测错误的检测以及超出安全执行区域的检测,在该任务中表现优异,并在不需要额外标签或进入区别于正常数据集之外的样本的情况下超过了最近提出的指标构建方法。此外,我们还解决了置信度检测器校准问题,即我们证明被错误分类为正常数据集的正常样本是超出安全执行区域的样本的良好替代品。
Feb, 2018
深度学习方法在建模机器人估计系统中的不确定性上表现出了巨大潜力,特别是当不确定性分布不符合传统的固定和高斯假设时。本研究通过三种基本的深度学习方法(参数化模型、离散化模型和生成模型)对非高斯型不确定性进行了数值建模和评估,并在模拟非高斯密度和现实世界的地形相对导航数据上系统比较了这三种方法的优缺点。结果表明,这些深度学习方法能够准确捕捉复杂的不确定性模式,彰显了它们提高估计系统可靠性和鲁棒性的潜力。
May, 2024
研究使用机器学习技术的安全关键系统需要可靠的不确定性评估。本研究发现,深度神经网络在处理分布外数据时可能会产生过度自信的预测。本研究提出了一种具有保护分布外数据和高准确度的分类器,并提供所有实验代码。
Jun, 2021
本研究通过在模型输入中添加专门的弃权类别,并在未经筛选的数据集中训练深度神经网络,建立有效分类器以识别无法归类的数据,并在图像和文本分类等领域上取得了良好表现。
May, 2021
深度神经网络在风险决策中的应用受到广泛关注,已在医学、金融、制造和质量控制等领域取得广泛应用。本文提出了一种数学框架,用于量化深度神经网络模型的预测不确定性,特别针对含有离散特征变量的表格数据集。通过对结核病患者在治疗过程中的预测进行案例研究,结果表明在一定风险水平下,我们能够识别出风险敏感的情况,这些情况容易因为预测器中的误差而被错误分类。与蒙特卡洛丢弃法相比,我们提出的框架更加关注误分类的情况。我们的提出的深度学习不确定性量化框架可在存在离散预测误差的应用中支持基于风险的决策。
Oct, 2023