自动化深度集成与不确定性量化
本研究比较了多种机器学习技术的 UQ 准确性,并对两个模型(船只在波浪中的运动和 Majda-McLaughlin-Tabak 模型)进行了应用。
Jun, 2023
本研究提出了一种替代贝叶斯 NN 的简单实现方法,其能够产生高质量的预测不确定性估计,并在分类和回归数据集上进行了实验以证明这一点。此外,研究还评估了在已知和未知数据分布下的预测不确定性,并证明该方法能够在超出分布的样本上表现出更高的不确定性,同时在 ImageNet 上证明了该方法的可扩展性。
Dec, 2016
论文提出了一种通过单次前向传递来训练确定性深度模型的方法,该深度模型可以找到并拒绝分布外的数据点。此外,论文还提出了一种基于确定性不确定性量化(DUQ)的建议,并描述了一种新的损失函数和质心更新策略。通过引入梯度惩罚,我们能够可靠地检测分布外的数据,并且可以在大型数据集上缩放不确定性量化。最后,作者在一些难以检测的数据集上,如 FashionMNIST vs. MNIST 和 CIFAR-10 vs. SVHN,使用单个模型得出了比 Deep Ensembles 更好的结果。
Mar, 2020
本研究介绍了一种新方法 Deep Uncertainty Distillation using Ensembles for Segmentation (DUDES),它能够高效地进行深度神经网络的预测不确定性估计,而不会牺牲性能,以解决自动驾驶、医学图像和机器视觉应用中模型可靠性不足的问题。
Mar, 2023
混合神经可微模型 (Hybrid Neural Differentiable Models) 在科学机器学习领域中具有重要的进展。这些模型将已知物理学的数值表示与深度神经网络相结合,提供了增强的预测能力,并展现了在数据驱动的复杂物理系统建模方面的巨大潜力。然而,一个至关重要但尚未解决的挑战在于量化来自多个来源的内在不确定性。针对这个问题,我们引入了一种新的方法 DiffHybrid-UQ,用于混合神经可微模型中的有效和高效的不确定性传播和估计,充分利用了深度集成贝叶斯学习和非线性变换的优势。具体地说,我们的方法能够有效地识别和量化同时来自数据噪声 (aleatoric uncertainties) 和模型形式偏差以及数据稀疏性引起的认知不确定性 (epistemic uncertainties)。这是在贝叶斯模型平均框架下实现的,其中通过混合神经模型来建模随机噪声。在混合模型中的非线性函数通过无损变换 (unscented transformation) 实现这些不确定性的传播。与此相反,我们使用一组随机梯度下降 (SGD) 轨迹来估计认知不确定性。这种方法为网络参数和物理参数的后验分布提供了实用的近似。值得注意的是,DiffHybrid-UQ 框架的设计考虑到了实施的简单性和高可扩展性,使其适用于并行计算环境。通过一些受常微分方程和偏微分方程影响的问题,我们展示了所提出方法的优势。
Dec, 2023
本文提出两种构建神经网络集合的方法,使用不同的体系结构,以细化预测结果并利用架构变化作为集合的差异性的来源,并在多个分类任务和现代架构搜索空间方面表现优于深度集成。
Jun, 2020
我们提出了一种基于随机动态系统视角的量化深度神经网络不确定性的新方法,即神经随机微分方程模型 (SDE-Net),并证明了其存在唯一解的性质,实验证明该模型在不确定性占据重要角色的一系列任务中优于现有的不确定性估计方法。
Aug, 2020
本文研究比较了在一个物理系统的背景下,深度学习算法的不确定性量化方法,包括贝叶斯神经网络,Concrete Dropout 和 Deep Ensembles,并探讨了它们的优缺点,结果为使用和解释不确定性量化方法提出了一些建议。
Apr, 2020
本研究提出了一种概念简单的基线模型,即通过残差连接和谱归一化构建特征空间后,利用高斯判别分析对 softmax 神经网络的预测原型进行后处理,从而达到准确预测深度神经网络中的不确定性的目的,这种 Deep Deterministic Uncertainty(DDU),可以替代当前复杂且耗时的不确定性量化方法,且比当前最先进的方法的计算成本更低。
Feb, 2021
AutoGNNUQ 是一种自动化不确定性量化方法,通过生成一组高性能的图神经网络(GNNs)进行分子属性预测,实现对预测的不确定性的估计,并利用方差分解来提供减少不确定性的有价值见解。在多个基准数据集上的计算实验证明,AutoGNNUQ 在预测准确性和不确定性的性能方面优于现有的不确定性量化方法。此外,利用 t-SNE 可视化方法来探索分子特征与不确定性之间的相关性,为数据集的改进提供了见解。AutoGNNUQ 在药物发现和材料科学等领域具有广泛的应用价值。
Jul, 2023