本文提出一种方法,通过跟踪神经网络在优化过程中的权重轨迹从而计算 DNN 的权重分布,进而通过从这些分布中抽样网络来评估 DNN 的认知不确定性。该方法无需更改架构或训练过程,在标准分类和回归基准测试以及分类和语义分割的混淆数据检测上具有竞争性的结果,同时保持较高的计算效率。
Dec, 2019
本研究提出一种基于感知器的设计方案,该方案结合了贝叶斯神经网络和深度集成等现代方法,通过在每层的权重矩阵中加入少量的诱导权重来降低存储和计算成本,同时保持较好的预测精度和不确定性估计能力。
May, 2021
研究了给定预期度序列的加权图上最大熵分布。使用指数族分布的一般理论,导出了顶点参数的最大似然估计量 (MLE) 的存在和唯一性,同时证明了单个样本的 MLE 在大图极限下的一致性,以及推出了加权图的 Erdos-Gallai 准则和顶点势的独立边权。
Jan, 2013
提出了一种新的、高效的、基于 Backprop 的方法 Bayes by Backprop,用于在神经网络的权重上学习概率分布,通过最小化压缩成本(即变分自由能或边缘似然的预期下界)来规范权重。该方法在 MNIST 分类的任务上表现出与 dropout 相当的性能。在非线性回归问题中,学到的权重的不确定性可以用来提高泛化能力,并且可以用来驱动在强化学习中的探索和开发之间的平衡。
May, 2015
我们提出了一种用于推断科学模拟器参数的唯一源分布的方法,并尽可能保留更多的不确定性。
Feb, 2024
该论文提出了使用 DisMax 损失训练确定性神经网络的方法,提高了分类准确度、样本在分布内和外的识别能力和不确定性估计,同时还保持了神经网络的推理效率。
May, 2022
介绍不确定最大熵法,将黑盒机器学习模型的输出作为输入,使其能够使用噪声观测,同时提高预测精度。
May, 2023
介绍了一种解决超出分布校准问题的新损失函数,基于最大熵原理,通过加入在训练过程中观察到的有帮助的统计约束,实现更好的模型校准而不损失准确性,理论分析和实验证明了该方法在合成和现实世界基准上取得了最先进的校准效果。
Oct, 2023
本研究提出了一种改进基于像素 softmax 熵的方法的两步流程,通过引入第二个训练目标,最大化对不同数据集的 softmax 熵,并利用手工创造的 Metric 从 softmax 概率得出透明的后处理步骤来降低误检率,从而提高深度神经网络的 OoD 检测性能。
Dec, 2020
本文介绍了一种基于 GAN 的方法来构建鲁棒分类器,采用 GAN 显式生成分类器可以确信的、高熵的样本,并让分类器在这些样本上最大化熵,相对于现有最先进技术在手写字符和各种自然图像数据集上展示了该方法的有效性。
Dec, 2018