MaxEnt Loss: 基于约束的最大熵法在外样本分布变化下的校准
该论文提出了使用 DisMax 损失训练确定性神经网络的方法,提高了分类准确度、样本在分布内和外的识别能力和不确定性估计,同时还保持了神经网络的推理效率。
May, 2022
使用贝叶斯和集成方法,在深度学习中处理不确定性量化和跨分布检测问题,通过最大熵原则来解决预测多样性不足的问题,提出了一种权重参数化的方法,通过奇异值分解来增加权重熵以实现更有效的算法。
Sep, 2023
通过建立优化方程,利用训练样本和测试输入的几何信息,提出了一种无需依赖分布假设、先验知识和特定训练机制的新型距离方法,用于在存在测试输入的情况下,有效利用分布信息来判断样本是否为来自分布之外的样本,并在基准数据集上展开的大量实验证明了该方法在区分来自分布之外样本上的性能优越性。
Jan, 2024
本文提出了一种基于贝叶斯模型和 Monte-Carlo Dropout 技术的 OOD 检测框架,能够有效减少训练集和测试集分布的不匹配所导致的不确定性,从而提高 OOD 的 F1 得分。
Sep, 2022
现代机器学习系统的一个关键挑战是实现越界通用化(OOD generalization)- 广义到与源数据分布不同的目标数据。本文证明了在针对协变量转移的规范设置下,令人惊讶的是,纯使用源数据(无需任何修改)的经典最大似然估计(MLE)达到了最小最大优化。我们的结果适用于非常丰富的参数模型,并不需要对密度比率施加任何有界条件。我们通过线性回归、逻辑回归和相位恢复的三个具体示例来说明我们框架的广泛适用性。此外,本文通过证明在误规设定下,MLE 不再是最优选择,而在某些情景下,最大加权似然估计(MWLE)成为最小最大优化。
Nov, 2023
模型校准的新后续校准目标函数通过使用样本的转换版本来减少模型对错误预测样本的置信度并增加对正确预测样本的置信度,从而与现有技术在校准性能上达到相当竞争水平。
Apr, 2024
本研究提出了一种改进基于像素 softmax 熵的方法的两步流程,通过引入第二个训练目标,最大化对不同数据集的 softmax 熵,并利用手工创造的 Metric 从 softmax 概率得出透明的后处理步骤来降低误检率,从而提高深度神经网络的 OoD 检测性能。
Dec, 2020
通过广泛的实验,我们展示了当前的 ODD 检测器对于协变量转移比语义转移更为敏感,并且最新的 ODD 检测算法对于语义转移的检测效果微乎其微。我们的数据集和分析为指导未来的 ODD 检测器设计提供了重要见解。
Oct, 2023
本文针对图像分类中的 ODD 问题,分析研究了最近提出的使用置信分类器来检测 ODD 样本的方法,并结论表明该方法仍会对偏离训练数据分布的 OOD 样本产生高置信度,建议新增 “拒绝” 类别来训练分类器。
Apr, 2019